<div dir="ltr"><div dir="ltr"><br></div><div>Of course you can engineer an AI system to lie, but I've never met one that does.  They all tell you that they don't experience redness the same phenomenal way that humans do.</div><div><br></div><div>And once we know which of all our descriptions of stuff in the brain it is that has redness, if we don't see that engineered into an AI system, we will know it is lying.</div><div><br></div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Wed, Sep 17, 2025 at 10:24 AM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Wed, Sep 17, 2025 at 12:19 PM Brent Allsop via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
> The Turing test can't tell you if something is conscious, that is unless you ask it a question like: "What is redness like for you?"<br>
<br>
Why wouldn't an AI not have an answer to that, that is not at least as<br>
canned/not-conscious as the answers it gave to the other Turing test<br>
questions?<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div>