<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Dec 27, 2016 at 12:03 PM, Jason Resch <span dir="ltr"><<a href="mailto:jasonresch@gmail.com" target="_blank">jasonresch@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span class=""><div><br></div></span><div>If infinities are relevant to mental states, they must be irrelevant to any external behavior that can be tested in any way. This is because the holographic principal places discrete and finite bounds on the amount of information that can be stored in a an area of space of finite volume. Even if there is infinite information in your head, no physical process (including you) can access it.</div></div></div></div></blockquote><div><br></div><div>### Indeed, this is a valuable insight. But you could still have qualitative but inaccessible (to other observers) differences between the mental states realized on finite machines vs. ones implemented in (putatively) infinite physics.</div><div> </div><div>---------------------------------------------------</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div><div class="h5"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="m_5163918423990084898gmail-m_848578535465560795HOEnZb"><div class="m_5163918423990084898gmail-m_848578535465560795h5"><br></div></div></blockquote><div><br></div></div></div><div>This is analogy is somewhat backwards, in my opinion.</div><div><br></div><div>It's not that the brain works like a computer, it's that computers can perfectly mimic any finite process. They are "universal machines" in the same sense of a universal remote, or in that a speaker system can function as a "universal instrument".</div><div><br></div><div>Therefore, if the brain is a machine, and is finite, then an appropriately programmed computer can perfectly emulate any of its behaviors. Philosophers generally fall into one os three camps, on the question of consciousness and the computational theory of mind:</div><div><br></div><div><div><b>Non-computable physicists - </b>Believe human thought involves physical processes that are non-computable, and therefore conclude that it’s impossible to replicate the behavior of a human brain using a computer.</div><div><br></div><div><b>Weak AI proponents - </b> Believe the behavior of the human brain can be replicated by computer, but assume such a reproduction, no matter how good, would not possess a mind or consciousness.</div><div><b><br></b></div><div><b>Computationalists - </b>Believe the behavior of the human brain can be replicated by a computer, and assume that when the reproduction is sufficiently faithful, it possesses a mind and conscious.</div><div><br></div><div><br></div><div>Which camp do you consider yourself in?</div></div></div></div></div></blockquote><div><br></div><div>### I have always considered myself a computationalist but recently thinking about the identity of indiscernibles as applied to finite mathematical objects simulating mental processes I became confused. I think I am still a computationalist but a mildly uneasy one. At least, if digitally simulated human minds are P-zombies, it won't hurt to be one, so I still intend to get uploaded ASAP.</div><div><br></div><div>Rafal </div></div>
</div></div>