<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">John, why do you require certainty?  That is not what science is, is it? All science can ask is that a phenomenon is highly reliable.</div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">Of course I have not, as I said, read the books and done a lot of thinking about this, but........</div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">Why couldn't you just imagine a study where a stimulus is presented to someone and they give you a verbal description of it which aligns with yours.  This means that both of you are conscious (among other things like intactness of the visual and auditory systems and speech centers).  Repeat with any ordinary stimulus, not some illusion, and you will get the same results.  </div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">Now do the same thing with an eeg showing that the subject is in stage 4 sleep.  No response.  Unconscious.  Completely reliable.</div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">I am sure some of you will find that too simple and naive' and will contradict it, but I would like to know just what is wrong with the above.  I do think you will tell me that an AI can do what a person can do, except for the sleep study.  Well, I guess that means the AI is conscious.  A lot of people won't be happy with that.</div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">bill w</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Dec 19, 2019 at 4:44 PM John Clark via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="color:rgb(80,0,80);font-family:Arial,Helvetica,sans-serif"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Thu, Dec 19, 2019 at 11:57 AM Brent Allsop <<a href="mailto:brent.allsop@gmail.com" target="_blank">brent.allsop@gmail.com</a>> wrote:</span><br></div></div></span><div class="gmail_quote" style="font-family:Arial,Helvetica,sans-serif"><span style="color:rgb(80,0,80)"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-family:Calibri,sans-serif"><span style="font-family:"Times New Roman",serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Consciousness isn’t about functionality or intelligence,</i></span></p></div></blockquote><div><br></div></span><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">Then consciousness research is doomed to get precisely nowhere and is a total waste of time. We can not directly detect consciousness in anybody except for ourselves and the only reason we don't believe we are the only conscious thing in the universe is because we see lots of other things that behave intelligently.</font></div><span style="color:rgb(80,0,80)"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-family:Calibri,sans-serif"><i><span style="font-size:12pt;font-family:"Times New Roman",serif"> <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span></span><span style="font-family:"Times New Roman",serif">Intelligent computer systems are abstracted away from physical qualities. </span></i></p></div></blockquote><div><i><br></i></div></span><div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">Yes, and a good thing too because consciousness is about as abstract as you can get.</font></div></div><span style="color:rgb(80,0,80)"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-family:Calibri,sans-serif"><span style="font-family:"Times New Roman",serif"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Any physical property can represent a 1, but only if you have a dictionary interpretation mechanism to get the one from that particular physical property. </span></p></div></blockquote><div><br></div></span><div class="gmail_default"><font face="arial, helvetica, sans-serif"></font><font size="4">And yet that 1 in the computer's memory can help it drive a car or diagnose a disease or beat you at chess. So how is that any different from the way you or I use 1, other than the fact that I know for certain I'm conscious but only strongly suspect that you and the AI are?</font></div><span style="color:rgb(80,0,80)"><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-family:Calibri,sans-serif"><span style="font-family:"Times New Roman",serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>We, on the other hand represent information directly on physical qualities, like redness and greenness. </i></span></p></div></blockquote><div><br></div></span><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">What's with this "we" business? I have no reason to think that you're conscious but an equally intelligently behaving computer is not.</font></div><span style="color:rgb(80,0,80)"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-family:Calibri,sans-serif"><span style="font-family:"Times New Roman",serif"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Stathis, from what I hear from you, you are saying that redness is not a physical quality and that greenness is not something physically different.  Is that the really case?</span></p></div></blockquote><div><br></div></span><div><div class="gmail_default"><font face="arial, helvetica, sans-serif"><font size="4">I don't know about Stathis but I think for a AI redness would be physically different from greenness and for the same reason a memory chip containing the number 17 is physically different from a </font></font><font size="4">memory chip containing the number 13. I'm assuming the AI is able to experience qualia and I think that is a good bet, I also think it's a good bet you experience qualia too. But the only thing in the universe that is known for certain to experience it is me.</font></div></div><div class="gmail_default"><br></div><div class="gmail_default"><font size="4">John K Clark</font></div></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>