<div dir="ltr"><br><div>Hi Adrian.</div><div><br></div><div>No, there are <a href="https://docs.google.com/document/d/1JKwACeT3b1bta1M78wZ3H2vWkjGxwZ46OHSySYRWATs/edit?tab=t.0" target="_blank">3 different ways to eff the ineffable nature of qualities</a>.</div><div><br></div><div>We can describe everything in the brain, but a description doesn't tell you what it is like.  Something in the brain is behaving the way it does because of its redness quality.  We just need to observe the brain in a non qualia blind way, and match up these descriptions of stuff in the brain with how we can subjectively directly apprehend them.  For example, it is possible that glutamate behaves the way it does, because of its redness quality.  The prediction is that if this is demonstrated to be the case, glutamate will have the same elemental subjective quality for everyone.</div><div><br></div><div>Oh, and remember, many people always think that I must be Adrian, to know what redness is like for Adrean.  But this is talking about the composite qualia level.  I'm only talking about an elemental quality level.  When Adrean and Brent experience redness, there is lots of other information, memories, and such subjectively bound into the composite quality experience.  But These composite experiences are built out of elemental qualities, and my elemental redness will be the same for everyone.</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Sep 17, 2025 at 7:15 AM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Wed, Sep 17, 2025 at 9:11 AM Brent Allsop via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
> But AI systems aren't yet designed to be like anything (i.e. they are engineered to use words like 'red', instead of qualities like redness to represent knowledge of red things), right?<br>
<br>
The existence, or lack of existence, inside an AI of an internal<br>
"quality" to define concepts such as redness seems to be an unprovable<br>
conjecture, much like the existence or lack of existence of souls.<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>