<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, May 1, 2022 at 8:22 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div>From presenting this argument to various people over years, the main problem seems to be with the concept of functional equivalence. They often respond that if the qualia were different the subject would notice,  although this could only happen if there were no functional equivalence.</div></blockquote><div><br></div><div>The required functionality is, if redness changes, it MUST notice it and change behavior.  Otherwise, it isn't a consciousness, composed of that particular redness, and able to detect differences from redness, as my consciousness is able to do.</div><div>I must be able to detect when redness changes to anything else.  There must be some change in the system which is  responsible for the change from redness to anything else, which enables the ability to know what redness is, and when it is not redness.   If it can't do all that, it isn't qualitatively like me.</div><div><br></div><div>Not sure I understand your 5 dog argument, as it is kind of like saying 1 = 2 (the same as 5 = 4).  If you do that, you can prove anything and everything to be true.  It is just a contradictory set of assumptions that gives the system zero utility.</div><div><br></div><div><br></div><div><br></div><div><br></div><div> </div></div></div>