<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, May 9, 2022, 8:59 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, May 9, 2022 at 6:49 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, 10 May 2022 at 09:04, Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div>Redness isn't about the black box functionality, redness is about how the black box achieves the functionality.</div></div></blockquote><div dir="auto"><br></div><div dir="auto">That may seem plausible, but the functionalist position is that however the functionality is achieved, redness will be preserved.</div></div></div></blockquote><div><br></div><div>In other words, you are not understanding where I pointed out, below, that you can't achieve redness via functionality, either, according to this argument.</div><div>So, why do you accept your substitution argument against substrate dependence, but not the same substitution argument for why redness can't superveen on function, as you claim, either?</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Great question Brent. This is the same issue that led Putnam to abandon functionalism.</div><div dir="auto"><br></div><div dir="auto">But I think there's a way out of applying multiple realizability to attack functionalism.</div><div dir="auto"></div><div dir="auto"><br></div><div dir="auto">There's a concept of "substitution level." The idea that there's a required minimum level of fidelity which must be functionally preserved in order to faithfully implement the mind.</div><div dir="auto"><br></div><div dir="auto">To see this clearly, consider that a person adding 4 and 5 and a calculator adding 4 and 5 perform the same function, insofar as at the highest level they have the same inputs and outputs. But this does not imply the conscious experience of the calculator is the same as that of the human, nor that two different humans doing that will experience the exact same thing while doing the addition in their head.</div><div dir="auto"><br></div><div dir="auto">As to whether the consciousness produced by a mind that at some level relies on bubble sort is the same as one relying on quicksort depends on at what level the function is implemented relative to the mind in question. If the sorting algorithm is sufficiently isolated and at a low enough level, then any sorting algorithm could be substituted interchangeably without impacting the mind, just as two functionally equivalent neurons of silicon or carbon might be swapped out without changing the consciousness.</div><div dir="auto"><br></div><div dir="auto">But now consider a mind consciously implementing the two sorting algorithms in its high level thoughts, in that case the conscious experience of the mind implementing the two algorithms would be different. You've elevated the function to a level where it can no longer be substituted without changing the abstract processes and functional organization of the mind and the information it has access to.</div><div dir="auto"><br></div><div dir="auto">Jason</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, May 9, 2022 at 4:53 PM Brent Allsop <<a href="mailto:brent.allsop@gmail.com" rel="noreferrer noreferrer noreferrer" target="_blank">brent.allsop@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div>Exactly, I couldn't have set it better myself.</div><div>Those aren't reasons why redness isn't substrate dependent.</div><div>If you ask the system: "How do you do your sorting, one system must be able to say "bubble sort" and the other must be able to say: "quick sort"</div><div>Just the same as if you asked: "What is redness like for you, one would say your redness, the other would say your greenness."</div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, May 9, 2022 at 4:51 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Those are not reasons why redness can't supervene.</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, May 9, 2022 at 3:42 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div>OK, let me explain in more detail.</div><div>Redness can't supervene on a function, because you can substitute the function (say bubble sort) with some other function (quick sort)</div><div>So redness can't supervene on a function, either because "you replace a part (or function) of the brain with a black box that affects the rest of the brain in the same way as the original, the subject must behave the same"</div><div>So redness can't superven on any function.</div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, May 9, 2022 at 4:03 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, 10 May 2022 at 07:55, Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi Stathis,<div><br><div>OK, let me try saying it this way.</div><div>You use the neural substitution argument to "prove" redness cannot be substrate dependent.</div><div>Then you conclude that redness "supervenes" on some function.</div><div>The problem is, you can prove that redness can't "supervene" on any function, via the same neural substitution proof.</div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">It supervenes on any substrate that preserves the redness behaviour. In other words, if you replace a part of the brain with a black box that affects the rest of the brain in the same way as the original, the subject must behave the same and must have the same qualia. It doesn’t matter what’s in the black box.</div><div dir="auto"><br></div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div dir="auto"></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, May 5, 2022 at 6:02 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, 6 May 2022 at 07:47, Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br><div>Hi Stathis,</div><div>On Thu, May 5, 2022 at 1:00 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div>On Fri, 6 May 2022 at 02:36, Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" dir="auto"><div dir="ltr"><div dir="ltr">On Wed, May 4, 2022 at 6:49 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">I think colourness qualities are what the human behaviour associated with distinguishing between colours, describing them, reacting to them emotionally etc. is seen from inside the system. If you make a physical change to the system and perfectly reproduce this behaviour, you will also necessarily perfectly reproduce the colourness qualities.<br></div></div></blockquote><div><br></div><div>An abstract description of the behavior of redness can perfectly capture 100% of the behavior, one to one, isomorphically perfectly modeled.  Are you saying that since you abstractly reproduce 100% of the behavior, that you have duplicated the quale?</div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">Here is where I end up misquoting you because I don’t understand what exactly you mean by “abstract description”.</div></div></div></blockquote><div><br></div><div><div><br><img src="https://mail.google.com/mail/?ui=2&ik=6932dd3163&attid=0.1&th=180ab8b94df49971&view=fimg&fur=ip&rm=180ab8b94df49971&sz=w1600-h1000&attbid=ANGjdJ9CtQw7Q1iFybTtXYcWh2Ihsqffkawm_iRd_3eOyN8PNw2ALBogloDunSEVBONC9hTllgIRs_j4Mt7cUM_9b79iO39qUrHs1u43HBz3UK-X1M_jfjP1_UkpO1M&disp=emb&realattid=ii_l2tgjh0i0&zw" alt="3_robots_tiny.png" style="width:320px;max-width:100%"></div><div><br></div><div>This is the best possible illustration of what I mean by abstract vs intrinsic physical qualities.</div><div>The first two represent knowledge with two different intrinsic physical qualities, redness and greenness.</div><div>"Red" is just an abstract word, composed of strings of ones and zeros.  You can't know what it means, by design, without a dictionary.</div><div>The redness intrinsic quality your brain uses to represent knowledge of 'red' things, is your definition for the abstract word 'red'.</div></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div class="gmail_quote"><div dir="auto">But the specific example I have used is that if you perfectly reproduce the physical effect of glutamate on the rest of the brain using a different substrate, and glutamate is involved in redness qualia, then you necessarily also reproduce the redness qualia. This is because if it were not so, it would be possible to grossly change the qualia without the subject noticing any change, which is absurd.</div></div></div></blockquote><div><br></div><div>I think the confusion comes in the different ways we think about this:</div><div><br></div><div>"the physical effect of glutamate on the rest of the brain using a different substrate"<br></div><div><br></div><div>Everything in your model seems to be based on this kind of "cause and effect" or "interpretations of interpretations".  I think of things in a different way.</div><div>I would emagine you would say that the causal properties of glutamate or redness would result in someone saying: "That is red."</div><div>However, to me, the redness quality, alone, isn't the cause of someone saying: "That is Red", as someone could lie, and say: "That is Green", proving the redness isn't the only cause of what the person is saying.</div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">The causal properties of the glutamate are basically the properties that cause motion in other parts of the system. Consider a glutamate molecule as a part of a clockwork mechanism. If you remove the glutamate molecule, you will disrupt the movement of the entire clockwork mechanism. But if you replace it with a different molecule that has similar physical properties, the rest of the clockwork mechanism will continue functioning the same. Not all of the physical properties are relevant, and they only have to be replicated to within a certain tolerance.</div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="auto"></div><div>The computational system, and the way the knowledge is consciousnessly represented is different from simple cause and effect.</div><div>The entire system is aware of all of the intrinsic qualities of each of the pixels on the surface of the strawberry (along with any reasoning for why it would lie or not)</div><div>And it is because of this composite awareness, that is the cause of the system choosing to say: "that is red", or choose to lie in some way.</div><div>It is the entire composit 'free will system' that is the initial cause of someone choosing to say something, not any single quality like the redness of a single pixel.</div><div>For you, everything is just a chain of causes and effects, no composite awareness and no composit free will system involved.</div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">I am proposing that the awareness of the system be completely ignored, and only the relevant physical properties be replicated. If this is done, then whether you like it or not, the awareness of the system will also be replicated. It’s impossible to do one without the other.</div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="auto"></div><div>If I recall correctly, you admit that the quality of your conscious knowledge is dependent on the particular quality of your redness, so qualia can be thought of as a substrate, on which the quality of your consciousness is dependent, right?  If you are only focusing on a different substrate being able to produce the same 'redness behavior' then all you are doing is making two contradictory assumptions.  If you take that assumption, then you can prove that nothing, even a redness function can't have redness, for the same reason.  There must be something that is redness, and the system must be able to know when redness changes to anything else.  All you are saying is that nothing can do that.</div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">I am saying that redness is not a substrate, but it supervenes on a certain type of behaviour, regardless of the substrate of its implementation. This allows the system to know when the redness changes to something else, since the behaviour on which the redness supervenes would change to a different behaviour on which different colour qualia supervene.</div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="auto"></div><div>That is why I constantly ask you what could be responsible for redness.  Because whatever you say that is, I could use your same argument and say it can't be that, either.</div><div>If you could describe to me what redness could be, this would falsify my camp, and I would jump to the functionalist camp.  But that is impossible, because all your so-called proof is claiming, is that nothing can be redness.</div><div><br></div><div>If it isn't glutamate that has the redness quality, what can?  Nothing you say will work, because of your so-called proof.  Because when you have contradictory assumptions you can prove all claims to be both true and false, which has no utility.</div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">Glutamate doesn’t have the redness quality, but glutamate or something that functions like glutamate is necessary to produce the redness quality. We know this because it is what we observe: certain brain structures are needed in order to have certain experiences. We know that it can’t be substrate specific because then we could grossly change the qualia without the subject noticing, which is absurd, meaning there is no difference between having and not having qualia.</div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="auto"></div><div>Until you can provide some falsifiable example of what could be responsible for your redness quality, further conversation seems to be a waste.  Because my assertion is that given your assumptions NOTHING will work, and until you falsify that, with at least one example possibility, why go on with this contradictory assumption where qualitative consciousness, based on substrates like redness and greenness, simply isn't possible?</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div>-- <br><div dir="ltr">Stathis Papaioannou</div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div>-- <br><div dir="ltr">Stathis Papaioannou</div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div>-- <br><div dir="ltr">Stathis Papaioannou</div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>