<div dir="ltr"><div dir="ltr"><br><div>Hi Stathis,</div><div>On Thu, May 5, 2022 at 1:00 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div>On Fri, 6 May 2022 at 02:36, Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" dir="auto"><div dir="ltr"><div dir="ltr">On Wed, May 4, 2022 at 6:49 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">I think colourness qualities are what the human behaviour associated with distinguishing between colours, describing them, reacting to them emotionally etc. is seen from inside the system. If you make a physical change to the system and perfectly reproduce this behaviour, you will also necessarily perfectly reproduce the colourness qualities.<br></div></div></blockquote><div><br></div><div>An abstract description of the behavior of redness can perfectly capture 100% of the behavior, one to one, isomorphically perfectly modeled.  Are you saying that since you abstractly reproduce 100% of the behavior, that you have duplicated the quale?</div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">Here is where I end up misquoting you because I don’t understand what exactly you mean by “abstract description”.</div></div></div></blockquote><div><br></div><div><div><br class="gmail-Apple-interchange-newline"><img src="cid:ii_l2tgjh0i0" alt="3_robots_tiny.png" width="320" height="118"></div><div><br></div><div>This is the best possible illustration of what I mean by abstract vs intrinsic physical qualities.</div><div>The first two represent knowledge with two different intrinsic physical qualities, redness and greenness.</div><div>"Red" is just an abstract word, composed of strings of ones and zeros.  You can't know what it means, by design, without a dictionary.</div><div>The redness intrinsic quality your brain uses to represent knowledge of 'red' things, is your definition for the abstract word 'red'.</div></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div class="gmail_quote"><div dir="auto">But the specific example I have used is that if you perfectly reproduce the physical effect of glutamate on the rest of the brain using a different substrate, and glutamate is involved in redness qualia, then you necessarily also reproduce the redness qualia. This is because if it were not so, it would be possible to grossly change the qualia without the subject noticing any change, which is absurd.</div></div></div></blockquote><div><br></div><div>I think the confusion comes in the different ways we think about this:</div><div><br></div><div>"the physical effect of glutamate on the rest of the brain using a different substrate"<br></div><div><br></div><div>Everything in your model seems to be based on this kind of "cause and effect" or "interpretations of interpretations".  I think of things in a different way.</div><div>I would emagine you would say that the causal properties of glutamate or redness would result in someone saying: "That is red."</div><div>However, to me, the redness quality, alone, isn't the cause of someone saying: "That is Red", as someone could lie, and say: "That is Green", proving the redness isn't the only cause of what the person is saying.</div><div>The computational system, and the way the knowledge is consciousnessly represented is different from simple cause and effect.</div><div>The entire system is aware of all of the intrinsic qualities of each of the pixels on the surface of the strawberry (along with any reasoning for why it would lie or not)</div><div>And it is because of this composite awareness, that is the cause of the system choosing to say: "that is red", or choose to lie in some way.</div><div>It is the entire composit 'free will system' that is the initial cause of someone choosing to say something, not any single quality like the redness of a single pixel.</div><div>For you, everything is just a chain of causes and effects, no composite awareness and no composit free will system involved.</div><div><br></div><div>If I recall correctly, you admit that the quality of your conscious knowledge is dependent on the particular quality of your redness, so qualia can be thought of as a substrate, on which the quality of your consciousness is dependent, right?  If you are only focusing on a different substrate being able to produce the same 'redness behavior' then all you are doing is making two contradictory assumptions.  If you take that assumption, then you can prove that nothing, even a redness function can't have redness, for the same reason.  There must be something that is redness, and the system must be able to know when redness changes to anything else.  All you are saying is that nothing can do that.</div><div><br></div><div>That is why I constantly ask you what could be responsible for redness.  Because whatever you say that is, I could use your same argument and say it can't be that, either.</div><div>If you could describe to me what redness could be, this would falsify my camp, and I would jump to the functionalist camp.  But that is impossible, because all your so-called proof is claiming, is that nothing can be redness.</div><div><br></div><div>If it isn't glutamate that has the redness quality, what can?  Nothing you say will work, because of your so-called proof.  Because when you have contradictory assumptions you can prove all claims to be both true and false, which has no utility.</div><div><br></div><div>Until you can provide some falsifiable example of what could be responsible for your redness quality, further conversation seems to be a waste.  Because my assertion is that given your assumptions NOTHING will work, and until you falsify that, with at least one example possibility, why go on with this contradictory assumption where qualitative consciousness, based on substrates like redness and greenness, simply isn't possible?</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div></div>