<div dir="auto"><div dir="auto"><br></div><div dir="auto">Hi Jason,</div><div dir="auto">I've gone over the difference between composite and elemental qualities before but evidently you missed it.</div><div dir="auto">Or is that different?</div><div dir="auto">We don't experience redness standalone it is always computationally bound with lots of other information. Information like how sweet a red strawberry will taste and other memories.</div><div dir="auto">Of course, one person's memories that gets bounds with redness is going to be different than another person's memories bound to redness, but the elemental redness itself could be the same.</div><div dir="auto">If this were not the case, we could not reproduce a TV signal with a fixed level of pixels with a fixed set of colors for each pixel, right?</div><div dir="auto">I guess we are each making different predictions. It's up to the experimentalist to prove which one is right.  I guess I'm predicting there is an elemental quality level out of which all possible composite visual experiences can be composed.  You are predicting otherwise.  If science verifies my hypothesis to be true, effing of the ineffable will be possible.  Otherwise it's not approachable via science, and we will never know?</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Apr 30, 2023, 7:49 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Apr 30, 2023, 9:23 AM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Jason,<div>OK, thanks.  That helps!</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">So happy to hear that! Thank you.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>(Can you hear my brain working to reorganize my understanding structure of functionalism? ;)</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">😂</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><br></div><div>You also said:  " it is hard to say, and impossible to prove."</div><div><br></div><div>But this is as simple as plugging whatever it is, into a <a href="https://canonizer.com/topic/827-Name-for-Binding-Problem-Sltn/2-Computational-Binding" rel="noreferrer noreferrer" target="_blank">computational binding system</a> and finding out, isn't it?</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Let's say we had advanced micro surgery technology that could rewire, permute, or tweak our brains however we wanted. Then we could perform direct qualia experiments on ourselves, and individually we could notice how different tweaks to one's brain change one's experience.</div><div dir="auto"><br></div><div dir="auto">But note that even with this, we're still stuck -- any knowledge one gains about their qualia remains subjective and forever linked to a particular brain state.</div><div dir="auto"><br></div><div dir="auto">If I perceive a very beautiful color that I want to share with you, how similar does your brain have to become to mine for you to perceive it? Just your visual cortex? Your visual cortex and emotion centers? Your visual cortex, emotional centers and language center? Your visual cortex, emotional centers,  language centers and memories?</div><div dir="auto"><br></div><div dir="auto">It's not clear to me that you could have an identical color experience without radical changes throughout your brain. And how could we know when our experiences are identical when our brains are not? Even when brains are identical, many argue it still requires a leap of faith to presume they have identical qualia (e.g. proponents of the inverted qualia experiments).</div><div dir="auto"><br></div><div dir="auto">You propose we can bridge this gap by linking qualia with certain physical properties, but I don't see that overcoming this issue. Event with a neural ponytail (from Avatar), or a thalamic bridge like the Hogan twins, there's no guarantee that the two ninds can take their knowledge of a combined experience with them after the minds disentangle. That's no different from you slowly modifying your mind to be like mine then slowly merging back, the returning back erases whatever context you had as me, and you're back in the dark as far as knowing or remembering what my color experience was like. The same applies to two brains merging into a combined state and then differentiating again.</div><div dir="auto"><br></div><div dir="auto">I apologize if this implies any kind of futility in understanding and sharing knowledge of qualia, but if you see a way around it I am all ears.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><br></div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Apr 30, 2023 at 7:13 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Apr 30, 2023, 8:29 AM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 29, 2023 at 5:54 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 29, 2023, 2:36 AM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Fri, Apr 28, 2023 at 3:46 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 28, 2023, 12:33 AM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Quite by accident, I happened upon this quote of Erwin Schrodinger this evening.<br><br>"Consciousness cannot be explained in physical terms. Because consciousness is absolutely fundamental. It cannot be explained in any other terms." <br></div></blockquote></div></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">That is actually what I also hold to be true about consciousness, though not necessarily for reasons related to quantum mechanics or eastern philosophy. (Schrodinger is said to have been influenced by eastern philosophy). <br></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Me too. Its strange then that we disagree regarding AI.</div></div></blockquote><div><br>Yes, that is interesting. To be clear, I agree with Schrodinger that consciousness cannot be explained in physical terms, but this is not quite the same as saying it is immaterial or non-physical. I mean, and I think he meant, that it cannot be explained in the third-person objective language of physics.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">There is a sense in which I could agree with this. I think physics is the wrong language for describing states of consciousness, which is a higher order phenomena. I would also say, as I have explained elsewhere, that in a certain sense consciousness is also more fundamental than the apparent physical reality.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> I take "absolutely fundamental" to mean irreducible.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Right there are several possible interpretations of what he means by fundamental.</div><div dir="auto"><br></div><div dir="auto">I agree that conscious is irreducible in the sense that looking at ever smaller pieces of the brain does not yield better understanding of the mind. I would say that consciousness is constructive, not reductive. You need to consider all the parts together, and how they build up to a whole, rather than how each part operates in isolation. </div><div dir="auto"><br></div><div dir="auto">Much of science has been successful precisely because it has followed the path of reductionism, but I don't think states of consciousness can be entirely understood by reductive means. Likewise the same is true for any complex enough system that manifests emergent behavior, like a complex computer program, or an ecosystem. When there are many unique parts interacting in complex ways with each other, the system as a whole cannot be understood by a simple analysis of each part. Any true understanding of that system must include all the parts working together: the whole.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>  I take "It cannot be explained in other terms" to mean that the experience itself is the only way to understand it.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I agree with what you say above.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> This is also why I try to stay out of the endless discussions about what are qualia.<br><br>I cannot explain in the language of physics, or in the language of computation or of functionalism generally, why I see the red quale when I look at an apple. I just do. It is fundamental and irreducible.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Note that functionalism doesn't aim to make qualia communicable. It is just the hypothesis that if you could reproduce the functional organization of a consciousness system, you would reproduce the same consciousness as that first conscious system.</div></div></blockquote><div><br></div><div>I don't understand why functionalists only ever seem to talk about "functional organization".</div><div>All 4 of the systems in this image:</div><div><a href="https://i.imgur.com/N3zvIeS.jpg" rel="noreferrer noreferrer noreferrer" target="_blank">https://i.imgur.com/N3zvIeS.jpg</a></div><div>have the same "functional organization" as they all know the strawberry is red.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">You have to consider the organization at the right degree of detail. They are not functionally identical as they are each processing information in different ways, one is inverting the symbol after the retina, another before, another is only geared to map inputs to text strings. These are functional differences.</div><div dir="auto"><br></div><div dir="auto">If you ignore the level of detail (the functional substitution level) and look at only the highest level of output, then you wouldn't up equating dreaming brain with a rock, both output nothing, but one has a rich inner experience.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>But the fact that they all have this same functionality is missing the point of what redness is.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">It seems to me that the real issue is that perhaps you have been misunderstanding what functionalism is this whole time. Yes a person asked what 2+3 is and a calculated what 2+3 is will both give 5, but they are very different functions when analyzed at a finer grain. This is what I have referred to as the "substitution level", for humans it may be the molecular, proteins, neural, or perhaps slightly above the neuronal level, it is hard to say, and impossible to prove.</div><div dir="auto"><br></div><div dir="auto">Note this is not done pet theory of mind, look at how Chalmers defines his notion of functionally invariant:</div><div dir="auto"><br></div><div dir="auto">"Specifically, I defend a principle of organizational invariance, holding that experience is invariant across systems with the same fine-grained functional organization. More precisely, the principle states that given any system that has conscious experiences, then any system that has the same functional organization at a fine enough grain will have qualitatively identical conscious experiences. A full specification of a system's fine-grained functional organization will fully determine any conscious experiences that arise."</div><div dir="auto"><br></div><div dir="auto">Note his repeated (I see three) appeals to it being a necessarily "fine-grained" level of functional organization. You can't stop at the top layer of them all saying "I see red" and call it a day, nor say they are functionally equivalent if you ignore what's going on "under the hood".</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>Why do functionalists never talk about redness,</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">They do talk about redness and colors all the time. Chalmers fading qualia experiment is entirely based on color qualia.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> but just "functional organisation?</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Because functional organization is the only thing that determines behavior, and it is as far as we can test or analyze a system objectively.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> </div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">It's a fairly modest idea as far as theories go, because you would obtain identical behavior between the two systems. So if the first is David Chalmers his functional duplicate would say and do all the same things as the original, including stating his love of certain qualia like deep purples and greens, and writing books about the mysterious nature of consciousness. Could such a thing be a zombie? This is where you and I part ways.<br></div></div></blockquote><div><br></div><div>To me, the R system in the above image is a zombie, as it can be functionally isomorphic to the other 3,</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">It's not functionally isomorphic at a fine-grained level.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> it can simulate the other 3,</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">It's not simulating the other three, it just happens to have the same output. To be simulating one of the other three, in my view, it's circuits would have to be functionally isomorphic to one of the others brains at perhaps the neuronal or molecular level.</div><div dir="auto"><br></div><div dir="auto">Note there is no way to simulate all three at the necessary level of detail at the same time in your picture because they have different qualia. Should two different fine-grained versions have different qualia implies, that they are not functionally isomorphic at the necessary substitution level (i.e. they're not the same at the fined-grained level on which the qualia supervene).</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> but its knowledge isn't like anything.  Do functionalists think of a zombie as something different?</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Different from what?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>Functionalists seem to be saying that a zombie like R isn't possible, and they seem to be saying aht A and C are the same, because they both know the strawberry is red.  That is true, but that is missing the point.  "Functional organization" isn't the point, the redness is the point.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I think you may be missing some points regarding functionalism, and implore you to read all of the dancing qualia thought experiment -- and consider what the consequences would be *if we could* simulate the brain's behavior using an artificial substrate.</div><div dir="auto"><br></div><div dir="auto">I know you disagree with this premise, but if you truly want to understand the functionalist perspective, you must temporarily accept the premise for the purposes of following the thought experiment ans seeing where lead *if* digital emulation were possible.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>Jason, what is redness, to you?  And why do you never talk about that, but only "functional organization?"</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I mention colors and qualia all the time. And moreover I have provided many arguments for why they are neither communicable nor shareable. Therefore I see little point in me talking about "redness for me" because others who are not me (everyone else on this list) cannot know what "redness for me" is, or whether or to what extent it mirrors or approximates "redness for them".</div><div dir="auto"><br></div><div dir="auto">It may be that the best we can do is say if we have two functionally isomorphic versions of me, with identically organized brains, then the redness for both will be the same, if the functional organization is identical at the necessary functional substitution level (i.e., it is finely-enough grained).</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Jason</div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>