<div dir="ltr"><div dir="ltr"><br><div>Hi Jason,</div><div>Sounds like you know your stuff, and have been studying the field for some time, so fun to have an additional challenger, even if your just another person in the currently leading consensus "functionalism" camp, which I believe is dead wrong.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, May 9, 2021 at 8:07 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div>If the "bio-brain" is conscious, and the "compu-brain" preserves all the relevant interrelationships of the bio-brain in an isomorphic manner, then all externally visible behavior will likewise be the same.<br></div></div></blockquote><div><br></div><div>Still not accounting for qualia in any significant way.  For example, wonder if you have two bio-brains, one engineered to be red/green qualia inverted.  With questions like: "What is redness like for you, they will behave very different, but on everything else you are describing in your post, they will behave identically, even possibly better, in any way you care to define better.</div><div><br></div><div>For that matter, Stathis is also always completely qualia blind, and any functionalists I have ever seen, the same.  They never fully account for qualia in anything they talk about or argue, and always completely avoid any reference to what qualia are, or how they would fit in any of the beliefs, or how redness might fit in their 'neuro substitution'....  To me, this is very strong evidence that any functionalists has no grasp at all on the qualitative nature of consciousness, and the assumptions they are making.  They just ignore it all, thinking it doesn't need to be accounted for.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div></div><div dir="auto">The person with a compu-brain will still cry when in pain, still say there's an incommunicable difference between red and green, still describe their dull back ache in full (and identical) detail to the person with the bio-brain. If based on the brain of Chalmers or Dennett, the compu-brain will even still write books in the mysteries of consciousness and qualia.<br></div><div dir="auto"><br></div><div dir="auto">In short, there's would be no objective or scientific test you could do to rule out the consciousness of the compu-brain, as all objective behaviors are identical.</div><div dir="auto"><br></div><div dir="auto">Although you could reason that "if philosphical zombies are logically impossible" then "identically functioning compu-brains must be conscious, in the same ways as bio-brains are conscious."</div><div dir="auto"><br></div><div dir="auto">I see no rational basis for an assumption that the compu-brain is not consciousness or is differently conscious. But there are rational bases for assuming they must be the same (e.g. dancing/fading qualia, self-reports, non-dualism, non-epiphenomenalism, successes of neural prosthesis, the anti-zombie principle).</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>3. There must be something that is responsible for each of the intrinsic qualities of each elemental piece of conscious knowledge, and you must be able to observe these computational differences.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Are you speaking from a first person or third person viewpoint when you say you must be able to observer computational differences?</div></div></blockquote><div><br></div><div>Two answer this, let's assume our description of glutamate, reacting in a synapse, is a description of your redness quality.</div><div>If not, then substitute all instances of glutamate, with whichever description of stuff in our brain, is a description of redness.</div><div>Given that, here is the answer:</div><div><br></div><div>We "Directly apprehend" glutamate reacting in a synapse as a redness quality of subjective experience (first person)</div><div>We observe glutamate, from afar, possibly using scientific instruments, and we end up with a description of glutamate, and how it behaves.  (third person)</div><div>Notice any description of how glutamate behaves tells you nothing of the colorness quality of that behavior.  You need a dictionary to know that.</div><div><br></div><div>For more info on this, see the "<a href="https://canonizer.com/videos/consciousness/?chapter=differentiate_reality_knowledge">Distinguishing between reality and knowledge of reality</a>" chapter of our video.</div><div><br></div><div><br></div><div><br></div><div> </div></div></div>