<br><br><div><span class="gmail_quote">On 3/25/07, <b class="gmail_sendername">Lee Corbin</b> <<a href="mailto:lcorbin@rawbw.com">lcorbin@rawbw.com</a>> wrote:<br><br></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Let me consider a concrete case, which could be implemented on a Life<br>board. Let's say that 100 trillion generations follow one another according<br>to the rules of Life, and are implemented in a real, causally deterministic
<br>machine of some kind (thereby satisfying my causality criterion).<br>Let's further suppose that this emulates the conscious experience of<br>someone or something. Then your experiment says that if we were to<br>checkpoint generation number 1, and checkpoint generation number
<br>50 trillion, then we might re-run the computation, except doing the<br>second half first.<br><br>That's perfectly sensible, and would deliver, in my opinion, almost all the<br>experience that the individual in question obtained during the first run.
<br>Of all 100 trillion states, all but the initial state is/was computed during<br>the first run.  But in the scenario where the second half is re-run first,<br>then state number 50 trillion is not *caused*, is not *computed* by
<br>any previous state.  It is pulled off the shelf, so to speak.  It is merely<br>"looked up".<br><br>So what?  What is one or two states out of 100 trillion?  That's why, to<br>me, this Greg Egan type thought experiment makes perfect sense.
<br><br>But what if only 9 out of 10 generations are computed, and the other 1<br>out of 10 are looked up?  Then I must suppose that the extent of the<br>conscious experience is diminished by one-tenth!   I am forced to take
<br>this stand, because if we take an ultimate limit, and merely have static,<br>frozen states scattered across space, then there occurs no activity, no<br>computation, no causality, and no experience whatever.</blockquote>
<div><br>If that were so, then the Life inhabitant would be a zombie during the looked up frames. An external observer would note the patterns on the board, would see light entering the subject's eyes, would see the subject pressing the button to register that he has perceived the light, but in fact the subject would not perceive anything. Moreover, at the next frame, which is computed, the subject would suddenly remember perceiving the light and have no recollection that anything unusual had happened.
<br><br>We could make the example more complex. Suppose that frame by frame, a gradually increasing number of squares on the Life board are looked up, while the remainder are computed according to the usual rules. What would happen when the squares representing half the subject's visual field are looked up? He would notice that he couldn't see anything on the right and might exclaim, "Hey, I think I'm having a stroke!" But the computation is proceeding deterministically just the same as if all the squares were computed; there is no way it could run off in a different direction so that the subject notices his perception changing and changes his behaviour accordingly. This is analogous to David Chalmer's "fading qualia" argument against the idea that replacement of neurons by silicon chips will result in zombification:
<br><br><a href="http://consc.net/papers/qualia.html">http://consc.net/papers/qualia.html</a><br><br>Stathis Papaioannou<br></div></div><br>