<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, May 9, 2021, 6:31 AM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><div>Hi Jason,</div><div>Thanks for jumping in, fun to have another participant, and thanks, Stathis, for posting this here, as evidently I would have missed it?  I wouldn't have wanted to miss it, so wondering why I did.</div><div><br></div><div>On Sat, May 8, 2021 at 3:39 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div><br></div><div><br><div class="gmail_quote"></div></div></div><div><div dir="ltr" class="gmail_attr">On Sun, 9 May 2021 at 03:43, Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div></div><div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"></blockquote></div><div><div dir="auto"><div dir="auto">To support Stathis's position:</div><div dir="auto"><br></div>Functionalism requires 2 things:<div dir="auto">1. that the physics used by the brain is computable</div><div dir="auto">2. That nothing in the brain requires an infinite amount of information</div></div></div></blockquote><div><br></div><div>this entire post is a completely qualia blind, especially this list of requirements.  In other words, you are missing THE most important qualitative nature of consciousness and how we represent things like knowledge of colors.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">I acknowledge that my post did not address qualia. Allow me to do so I  this post. </div><div dir="auto"><br></div><div dir="auto">If the "bio-brain" is conscious, and the "compu-brain" preserves all the relevant interrelationships of the bio-brain in an isomorphic manner, then all externally visible behavior will likewise be the same.</div><div dir="auto"><br></div><div dir="auto">The person with a compu-brain will still cry when in pain, still say there's an incommunicable difference between red and green, still describe their dull back ache in full (and identical) detail to the person with the bio-brain. If based on the brain of Chalmers or Dennett, the compu-brain will even still write books in the mysteries of consciousness and qualia.</div><div dir="auto"><br></div><div dir="auto">In short, there's would be no objective or scientific test you could do to rule out the consciousness of the compu-brain, as all objective behaviors are identical.</div><div dir="auto"><br></div><div dir="auto">Although you could reason that "if philosphical zombies are logically impossible" then "identically functioning compu-brains must be conscious, in the same ways as bio-brains are conscious."</div><div dir="auto"><br></div><div dir="auto">I see no rational basis for an assumption that the compu-brain is not consciousness or is differently conscious. But there are rational bases for assuming they must be the same (e.g. dancing/fading qualia, self-reports, non-dualism, non-epiphenomenalism, successes of neural prosthesis, the anti-zombie principle).</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>3. There must be something that is responsible for each of the intrinsic qualities of each elemental piece of conscious knowledge, and you must be able to observe these computational differences.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Are you speaking from a first person or third person viewpoint when you say you must be able to observer computational differences?</div><div dir="auto"><br></div><div dir="auto">I would say that there are many different ways one could write an equivalent program/function, so it might not always be obvious in a third person view when a different computation results in different consciousness. This is an aspect of all functionalist approaches, it results in a feature (or bug) called "multiple realizability".</div><div dir="auto"><br></div><div dir="auto">The problem arises even in bio-brains. A dolphin has different brain structures from humans, but most would admit both dolphins and humans can feel pain, despite these differences in their brains. So two different brain states result in similar conscious states.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>For example, by observe, if there is one pixels of visual knowledge switching from redness to greenness,  and nothing else about you conscious state is changing,  You of course must be able to directly apprehend the qualitative changes in that pixel, and also must be able to objectively observe from afar, whatever it is in your brain responsible for that subjective change in experience.  And you must be able to do it in a way so that you can tell if two people you are objectively observing have been engineered to have inverted red green qualia, as depicted in this image from Wikipedia.</div><div> </div><div><span id="m_-2766043731938869665gmail-docs-internal-guid-43972541-7fff-3ad3-6048-c8e0d2c04ea9"><span style="font-size:12pt;font-family:"Times New Roman";color:rgb(0,0,0);background-color:transparent;font-variant-numeric:normal;font-variant-east-asian:normal;vertical-align:baseline;white-space:pre-wrap"><span style="border:none;display:inline-block;overflow:hidden;width:250px;height:143px"><img src="https://lh5.googleusercontent.com/zlMd1cOLoGq3kGcwtQHXzYqvuUJ4a52jFzaGvLRdLx5QDhkgplowocaWRMEP-n7zZMOHoWgHfKL6J9Ux0ygftDpW-gzzY2fAVkh2MDll_vhyDpYXeALTHDghRTfsSnOV6Q8mldGR" width="250" height="143" style="margin-left:0px;margin-top:0px"></span></span></span><br></div><div><br></div><div> </div><div> </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I agree that inverted qualia could only come about through functionally different organizations of the brain. The idea that you could flip a metaphysical switch and invert someone's qualia I think makes the same error as assuming zombies are possible.</div><div dir="auto"><br></div><div dir="auto">Jason</div></div>