<div dir="auto"><div><br><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Mon, Feb 16, 2026, 8:07 AM John Clark <<a href="mailto:johnkclark@gmail.com">johnkclark@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sun, Feb 15, 2026 at 9:36 AM Jason Resch via extropy-chat <</span><a href="mailto:extropy-chat@lists.extropy.org" style="font-family:Arial,Helvetica,sans-serif" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><span style="font-family:Arial,Helvetica,sans-serif">> wrote:</span></div></div><div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">></span>the sound of the word tree,and the image of the word tree are two representations of the same concept."</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default">Yes but could you know that if you've never seen an image of a tree and in fact had never been exposed to anything except text? Apparently the answer is "yes", but that is not the answer I would have guessed. </span><span class="gmail_default"></span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">As I explained in the part you deleted, your brain doesn't get images from the outside world, it gets timing values of spikes of neurons. So your understanding of the correlation between the sound of the word tree and the image of a tree, and all your understanding of the outside world, is built from nothing but patterns of correlation between otherwise meaningless symbols (the neural spikes).</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>think of all the correlations that exist among the corpus the AI has. The word "tree" co-occurs (correlates with) with other words like: foliage, plant, life, tall, branches, leaves, shade, roots, sapling, seeds, wood, bark, etc.</i></font></div></div></blockquote><div><br></div><font size="4" face="tahoma, sans-serif"><b>I can see how an AI could figure out that the squiggle "tree" is often associated with the squiggle "foliage" and various other squiggles, but how it manages to make an association between any of those squiggles and something that exists in the external physical world is a mystery, at least to me. And a dictionary would be of no help, that's just a list of<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span>more squiggles.  </b></font></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">A dictionary does help. Remember my "a X is a Y" and "X is made of Y" example and what those two linguistic patterns + a dictionary or large corpus, can reveal about the structure and organization of the world. And that's just two linguistic patterns, of thousands. Consider all the prepositions and their meaning in terms of spatial relations: in, on, above, below, between, across, around, etc. You just need to think more about all the information that is there. It's not a circular loop as you claim it to be.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><font face="tahoma, sans-serif" size="4"><b><br></b></font><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>And each of these words has it's own correlations.<span class="gmail_default"> </span></i></font></div></div></blockquote><div><br></div><div dir="auto"><div><span class="gmail_default"><font size="4" face="tahoma, sans-serif"><b>Yes, the word "consciousness" is defined by the word "awareness", and "awareness" is defined by the word "consciousness", and round and round we go. </b></font></span></div></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Have you checked the definition of these words? These are the definitions I found:</div><div dir="auto"><br></div><div dir="auto">consciousness:
</div><div dir="auto">“awareness of one’s own existence, sensations,
</div><div dir="auto">thoughts, surroundings, etc.”
</div><div dir="auto"><br></div><div dir="auto">awareness:
</div><div dir="auto">“having knowledge“
</div><div dir="auto"><br></div><div dir="auto">knowledge:
</div><div dir="auto">“acquaintance with facts, truths, or principles”
</div><div dir="auto"><br></div><div dir="auto">acquaintance:</div><div dir="auto">“personal knowledge as a result of study, experience, etc.”</div><div dir="auto"><br></div><div dir="auto">So putting these together does not result in meaningless circularity, but rather, it expands to mean:</div><div dir="auto"><br></div><div dir="auto">Consciousness =</div><div dir="auto">having personal knowledge of the facts, truths, or principles of one's own existence, sensations, thoughts, surroundings, etc.</div><div dir="auto"></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>This correlation map, I believe, is the same sort of structure revealed in the platonic representation hypothesis work.<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span>Consider that the features extracted in an object recognition visual network, would be quite similar to the word correlations, a "tree" for the vision model, is something that correlates with having the features: trunk, branches, bark, leaves, etc. it's the same male, because both our language and our pictures correlate to the same underlying physical world.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Very recent evidence indicates that something like that must be true<span class="gmail_default">, and because of that superintelligence will arrive even sooner than I thought.  </span></b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Now consider that images are nothing but pixels, and pixels are nothing but bytes, and bytes are just "meaningless symbols". Yet, when we give a model billions of images it comes to understand the world -- from nothing other than the patterns of correlation among these "meaningless symbols." Does this analogy help show that with language, it's not the symbols that convey meaning, but the patterns between those symbols?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><br></div><div><br></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default">>> I always thought the argument </span><span class="gmail_default">that true AI would never be possible because it would need to be so ridiculously complex we could never understand it, was bogus. The amount of information required to make a seed AI is actually quite small.  </span></b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>True. In fact, AIXI shows that perfect universal intelligence requires only two lines of code.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>That I think would be going a little too far.</b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">You can look.up the wiki article on AIXI if you don't believe me.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default"> Two lines of code may be enough to describe an abstract Turing Machine, but </span>an abstract Turing Machine<span class="gmail_default"> can't calculate anything, you need a real physical machine for that. Human beings have found a way to <u>literall</u>y turn sand into real Turing Machines, and that manufacturing ability is what a seed AI would need to have, or at least have the capability to evolve into something that was able to master that very complex technology. The entire genome of a human being only contains about 750 MB of information, I would guess that just one or 2 MB of that would be sufficient to make a seed AI; more than two lines of code but still not very much.  </span></b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">For AIXI to make up for it's lack of information requires that it use vast and unrealistic amounts of computation. It's not practical, but it is useful as defining what perfect universal intelligence is. It provides a target to aim for, as well as a common ground of understanding regarding what intelligence is.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><span class="gmail_default"><font face="arial, helvetica, sans-serif"></font><font size="4" face="tahoma, sans-serif"><b>>> Even i</b></font></span><font size="4" face="tahoma, sans-serif"><b>f the<span class="gmail_default"> fundamental </span>laws of physics were radically<span class="gmail_default"> different it would not change chess anymore than it would change the fact that there are an infinite number of prime numbers, but the vast majority of things that we believe are the most important would change.  </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><font size="4" face="tahoma, sans-serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>This seems like an incomplete thought, what is the implication or point of this?</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>The point is it's<span class="gmail_default"> </span>easy to see how <span class="gmail_default">an AI that has been exposed to nothing but text could learn pure abstract mathematics, but it's much more difficult to figure out how it could also learn physics. </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">One is a subset of the other. If a LLM can learn math, it can learn anything.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b>Humans have found lots of text written in "Linear A" that was used by the inhabitants of Crete about 4000 years ago<span class="gmail_default">,</span> and the even older writing system used by the Indus Valley Civilization, <span class="gmail_default">but</span> <span class="gmail_default">m</span>odern scholars have been unable to decipher either of <span class="gmail_default">them</span> even though<span class="gmail_default">, unlike the AI,</span> they were written by members of their own species<span class="gmail_default">. A</span>nd the last person who could read ancient Etruscan was the Roman emperor Claudius.<span class="gmail_default"> The trouble is those civilizations are a complete blank, we have nothing to go on, today we don't even know</span> what spoken<span class="gmail_default"> </span>language family those civilizations used. </b></font></div><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b>Egyptian hieroglyphics would have also remained undeciphered except that we got a lucky break, we found the Rosetta Stone which contained the same speech written in both hieroglyphics and an early form of Greek which scholars could already read. Somehow AI has found their own "Rosetta Stone", I just wish I knew what it was. </b></font></div></div></div></blockquote></div></div><div dir="auto"><br></div></div>
</blockquote></div></div>
</div>
</blockquote></div></div></div>
__<br>
</blockquote></div></div>
</div>
</blockquote></div></div></div>