<div dir="ltr"><div dir="ltr">On Tue, May 16, 2023 at 4:39 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, May 16, 2023, 6:34 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:</div></div></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>but no, it doesn't seem to lead to a contradiction.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">The contradiction comes in after the fourth corrolary of this assumption</div></div></blockquote><div><br></div><div>Which is never reached, as the chain breaks at - depending on how you count it - the second or third corollary.</div><div>  </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">Corrolary 1. Talking about one's innermost desires, thoughts, feelings, sensations, emotions, beliefs, does not require consciousness.</div></div></blockquote><div><br></div><div>Nor does it require actually having desires, thoughts, feelings, and so on.  Sociopaths readily lie about their feelings, so LLM AIs could too.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">But lying would involve different pathways and patterns in the brain, which would be objectively detectable.</div></div></blockquote><div><br></div><div>Does it?  I have not heard of this in sociopaths.</div><div><br></div><div>Besides, the metaphor is to LLMs, which don't have the same sort of brains.</div><div>  </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>For that matter, in practice this would at best be, "...nor any other person that they meet could ever...".  Those who claim to know that LLMs are not conscious grant there could exist some p-zombies, such as LLMs, who never meet anyone who knows they are not conscious.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">But those who believe in the possibility of zombies (at least in physically identical ones) can never have a justification to conclude other humans they run into are not zombies.</div></div></blockquote><div><br></div><div>Correct.  Which leads to how to defeat such thinking.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>But there do exist people who claim to know the difference.  That is many of the very people who claim they can tell that LLMs are not conscious.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">We can never disprove the presence of a mind (for if we are in a simulation or game world, any object might be "ensouled", or exist in a disembodied invisible form), but I think we can prove to, some level of confidence, the presence of a mind when we see behavioral evidence of reactivity to change indicating an awareness or sense of some environmental variable.</div></div></blockquote><div><br></div><div>And what of those who arbitrarily set required levels for whatever scenario (AIs or certain types of humans) they want to "prove" to lack consciousness?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">Corrolary 3. The information indicating the fact that one person is a zombie while another is not would have to stand outside the physical universe, but where then is this information held?</div></div></blockquote><div><br></div><div>If this information exists and is measurable within some subjective realities, and it is provably consistent, then the information upon which this was based (regardless of whether the measurement is correct) lies inside the physical universe.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">If there is no behavior that is required for consciousness, then how can anyone establish that one entity is conscious and another entity is not? There would be no possible test, as no possible behavior could be tested for.</div></div></blockquote><div><br></div><div>Those who profess this belief claim it is obvious to them even if they can't quite put their methodology into words.</div><div><br></div><div>(The truth is that they are lying to themselves, first and foremost.  They don't actually have a methodology other than determining whether or not the subject is a member of the group that they have a priori declared to be unconscious.)</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>That's how those who hold  this view reason, anyway.  One key problem is that "it is provably consistent" notion.  They think it is, but when put to rigorous experiment this belief turns out to be false: without knowing who's an AI and who's human, if presented with good quality chatbots, they are often unable to tell.  That's part of the point of the Turing test.</div><div><br></div><div>I know, I keep using the history of slavery as a comparison, but it is informative here.  Many people used to say the same thing about black folks - that they weren't really fully human, basically what we today mean by supposing all AIs are and can only be zombies - but these same tests gave the lie to that.  Not all AIs are conscious, of course, but look at how this academic problem was solved before to see what it might take to settle it now.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Are you referring to the Turing test (a test of another's intelligence)</div></div></blockquote><div><br></div><div>And things similar to the Turing Test, yes, though I had not before heard of it as establishing intelligence, but merely likelihood to be human or to be AI based on conversational skills.</div><div><br></div><div>But that is not what I refer to by the history of slavery.  Alan Turing was not even born yet during the latter 19th century when such arguments were largely put to rest.</div></div></div>