<div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span class="gmail-im" style="font-family:Arial,Helvetica,sans-serif"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sat, Jan 17, 2026 at 9:57 AM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:</span></div></div></span><div class="gmail_quote" style="font-family:Arial,Helvetica,sans-serif"><span class="gmail-im" style="color:inherit"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="tahoma, sans-serif"><b>><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">></span> In that case I would've been correct because "both the pictures and the words came from the same external reality", and for an AI that only has access to such pictures or words, human interaction IS external reality.</b></font></blockquote><br><i><font face="georgia, serif" size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Depends on the definition of "external reality".  I thought you meant<br>external to everyone involved, including the humans.</font></i></blockquote><div><br></div></span><div><font size="4" face="tahoma, sans-serif"><b>We have a clear picture of what <span class="gmail_default">"</span>external reality<span class="gmail_default">" is for an AI, it is us. But we only have a blurry picture of what external reality is for us, as Plato said all we can see is shadows of it. </span><span class="gmail_default"> </span> </b></font></div><span class="gmail-im" style="color:inherit"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"></blockquote><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><i><font face="georgia, serif" size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>The claim is that Chinese or Native American fundamental depictions of<br>things like "cat" are massively different from Western depictions, so<br>when AI keeps distilling to Western depictions, that's proof that said<br>other viewpoints are being excluded or not considered.<br>That's the claim, anyway.  From what I have seen of the "true"<br>cultures, many times the underlying concepts aren't actually all that<br>different, no matter how much they may feel different</font></i></blockquote><div><br></div></span><div><font size="4" face="tahoma, sans-serif"><b>There is some truth in that because <span class="gmail_default">all</span> cultures<span class="gmail_default"></span> do have something in common;<span class="gmail_default"> natural selection demands that human behavior, which is produced by an internal mental model of the way things work, is compatible with the external real world. What I find remarkable is that the way an AI that has been exposed to nothing but words organizes things is remarkably similar to the way an AI that has been exposed to words and pictures and videos and even operated robots and drones organizes things. Some say AI is just autocomplete on steroids, well maybe so, but it's starting to look like that's enough to create a singularity. </span>In other words, recent evidence suggests that words are more powerful than most people thought.<span class="gmail_default"> </span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default"><br></span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default">John K Clark</span></b></font></div></div></div></div>