<div dir="ltr">I came across this video today, and thought it relevant to this conversation:<div><br></div><div><a href="https://www.youtube.com/watch?v=nQHBAdShgYI">https://www.youtube.com/watch?v=nQHBAdShgYI</a><br></div><div><br></div><div>Jason</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Dec 30, 2016 at 9:01 AM, Jason Resch <span dir="ltr"><<a href="mailto:jasonresch@gmail.com" target="_blank">jasonresch@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span class="">On Fri, Dec 30, 2016 at 1:14 AM, Rafal Smigrodzki <span dir="ltr"><<a href="mailto:rafal.smigrodzki@gmail.com" target="_blank">rafal.smigrodzki@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span class="m_7497083187566527941gmail-">On Tue, Dec 27, 2016 at 12:03 PM, Jason Resch <span dir="ltr"><<a href="mailto:jasonresch@gmail.com" target="_blank">jasonresch@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span><div><br></div></span><div>If infinities are relevant to mental states, they must be irrelevant to any external behavior that can be tested in any way. This is because the holographic principal places discrete and finite bounds on the amount of information that can be stored in a an area of space of finite volume. Even if there is infinite information in your head, no physical process (including you) can access it.</div></div></div></div></blockquote><div><br></div></span><div>### Indeed, this is a valuable insight. But you could still have qualitative but inaccessible (to other observers) differences between the mental states realized on finite machines vs. ones implemented in (putatively) infinite physics.</div><div> </div><div>------------------------------<wbr>---------------------</div></div></div></div></blockquote><div><br></div></span><div>What would be accessing this information and having these perceptions then? It seems to me you would need some "raw perceiver" which itself is divorced entirely from the physical universe. Can there be perceptions that in theory can have no effect on behavior whatsoever? Not even in detectable differences in neuronal behavior or positions of particles in the brain?</div><span class=""><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span class="m_7497083187566527941gmail-"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div><div class="m_7497083187566527941gmail-m_7146887147244375345h5"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div class="m_7497083187566527941gmail-m_7146887147244375345m_5163918423990084898gmail-m_848578535465560795HOEnZb"><div class="m_7497083187566527941gmail-m_7146887147244375345m_5163918423990084898gmail-m_848578535465560795h5"><br></div></div></blockquote><div><br></div></div></div><div>This is analogy is somewhat backwards, in my opinion.</div><div><br></div><div>It's not that the brain works like a computer, it's that computers can perfectly mimic any finite process. They are "universal machines" in the same sense of a universal remote, or in that a speaker system can function as a "universal instrument".</div><div><br></div><div>Therefore, if the brain is a machine, and is finite, then an appropriately programmed computer can perfectly emulate any of its behaviors. Philosophers generally fall into one os three camps, on the question of consciousness and the computational theory of mind:</div><div><br></div><div><div><b>Non-computable physicists - </b>Believe human thought involves physical processes that are non-computable, and therefore conclude that it’s impossible to replicate the behavior of a human brain using a computer.</div><div><br></div><div><b>Weak AI proponents - </b> Believe the behavior of the human brain can be replicated by computer, but assume such a reproduction, no matter how good, would not possess a mind or consciousness.</div><div><b><br></b></div><div><b>Computationalists - </b>Believe the behavior of the human brain can be replicated by a computer, and assume that when the reproduction is sufficiently faithful, it possesses a mind and conscious.</div><div><br></div><div><br></div><div>Which camp do you consider yourself in?</div></div></div></div></div></blockquote><div><br></div></span><div>### I have always considered myself a computationalist but recently thinking about the identity of indiscernibles as applied to finite mathematical objects simulating mental processes I became confused. I think I am still a computationalist but a mildly uneasy one. At least, if digitally simulated human minds are P-zombies, it won't hurt to be one, so I still intend to get uploaded ASAP.</div><span class="m_7497083187566527941gmail-HOEnZb"><font color="#888888"><div><br></div></font></span></div></div></div></blockquote><div><br></div></span><div>What does your unease come from? Is it the uncertainty over whether or not the brain is infinite or finite? I think even if it is finite there is reason to be uneasy over uploading, the question of whether the functional substitution captures the necessary level. The concept of a substitution level is defined and explored in this paper: <a href="http://iridia.ulb.ac.be/~marchal/publications/CiE2007/SIENA.pdf" target="_blank">http://iridia.ulb.ac.<wbr>be/~marchal/publications/<wbr>CiE2007/SIENA.pdf</a></div><div><br></div><div>I think the matter of the substitution level and the importance of it is what Ned Block captured in his Blockhead thought experiment ( <a href="https://en.wikipedia.org/wiki/Blockhead_(computer_system)" target="_blank">https://en.wikipedia.org/wiki/<wbr>Blockhead_(computer_system)</a> ), where his brain was replaced with a lookup table. This can replicate external behaviors, but it is an entirely different function from one that actually implements his mind, and thus it may be a zombie or zombie-like.</div><span class="HOEnZb"><font color="#888888"><div><br></div><div>Jason</div></font></span></div><br></div></div>
</blockquote></div><br></div>