<div dir="auto"><div><br><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Sat, Feb 14, 2026, 8:02 AM John Clark <<a href="mailto:johnkclark@gmail.com">johnkclark@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Fri, Feb 13, 2026 at 10:09 AM Jason Resch via extropy-chat <</span><a href="mailto:extropy-chat@lists.extropy.org" style="font-family:Arial,Helvetica,sans-serif" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><span style="font-family:Arial,Helvetica,sans-serif">> wrote:</span></div></div><div dir="ltr"><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>> </span>I think it is<span class="gmail_default"> more surprising</span>.<span class="gmail_default"> </span>For humans<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span><span class="gmail_default">most of</span> those dots and dashes<span class="gmail_default"> came <u>directly</u> from the outside physical world, but for an AI that was trained on nothing but text none of them did, all those dots and dashes came from another brain and <u>not directly</u> from the physical world. </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Both reflect the physical world. Directness or indirectness I don't see as relevant. Throughout your brain there are many levels of transformation of inputs.</i></font></div></div></blockquote><div><br></div><div><font face="tahoma, sans-serif" size="4"><b>But most of those transformations make sense only in light<span class="gmail_default"> of other things that the brain knows, chief among them being an intuitive understanding of everyday physics. Nevertheless as it turns out, that fact doesn't matter. Perhaps I shouldn't have been but that surprised me. </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I don't think much knowledge of physics is pre-wired. It takes children several months or years before they learn objects continue to exist even when no longer seen (object permanence), for example. Inertia was also highly counter intuitive, and took until Descartes and Newton before this basic conceptual was understood by humans. So I believe nearly everything we know about physics comes from training, and very little is pre-programmed by our genes.</div><div dir="auto"><br></div><div dir="auto">I believe also that the commonalities we see in brain regions between people is an emergent property, resulting from similar physiological organization and similar kinds of inputs. But note, despite general similarities (I e. vision is processed in the back) there are differences. Some people's speech generation function is in the right, rather than left hemisphere. There are also experiments where researchers rewired the optic nerve of animals to go to their auditory cortex rather than the visual cortex. These animals developed normal vision.</div><div dir="auto"><br></div><div dir="auto">The informational complexity of an adult human brain is approximately a million times that of the informational complexity of the genome. So whatever pre-set intuitions came from your genes, can at best, represent only a millionth of what you now know.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Consider: I could train a neural network to monitor the health of a retail store by training it on every transaction between every customer and vendor, or I could train a neural network on the quarterly reports issues by the retail store's accountant to perform the same analysis.<span class="gmail_default"> </span>That one set of data has gone though and account's brain doesn't make the data meaningless or inscrutable.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Not a good example,<span class="gmail_default"> it's no better than Chess because neither would require even an elementary understanding of how physical objects interact with each other, but most things of real importance do. </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">What's important to take away from this example is that developing an understanding of how things interact *need not be direct* measurements of the fundamental entity in question, they can be indirect.</div><div dir="auto"><br></div><div dir="auto">Then what's important to take away from the Chess example is that an understanding of how things interact can be extracted *merely from textual examples and descriptions* of those things interacting.</div><div dir="auto"><br></div><div dir="auto">Put these two together and you can see that a LLM, given only *indirect* and only *textual examples* describing physical things interacting, can come to have an understanding of physical things and how they interact.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>> </span>I can see how an AI that was trained on nothing but text<span class="gmail_default"> could understand that Pi is the sum of a particular infinite sequence, but I don't see how it could understand the use of Pi in geometry because it's not at all clear to me how it could even have an understanding of the concept of "space"; and even if it could, the formulas that we learned in grade school about how Pi can be used to calculate the circumference and area of a circle from just its radius would be incorrect except for the special case where space is flat. </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><font size="4" face="tahoma, sans-serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Even if the LLM lacks a direct sensory experience of 3-dimensional world, it can still develop an intellectual and even an intuitive understanding of it, in the same way that a human geometer with no direct experience of 5 dimensional spaces, can still tell you all about the various properties of shapes in such a space, and reason about their relationships and interactions.</i></font></div></div></blockquote><div><br></div><font size="4" face="tahoma, sans-serif"><b>But the human scientist is not starting from nothing, he already has an intuitive understanding of how 3 dimensions work so he c<span class="gmail_default">an</span> make an extrapolation<span class="gmail_default"> to 5</span>, but an AI that was trained on nothing but text wouldn't have an intuitive understanding about how <span class="gmail_default"><u>ANY</u></span> spatial dimension works. </b></font></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Even the human scientist had to gain that intuitive understanding of physics from scratch (unless you presume our genes hardwire the brain for euclidean geometry). And if you do, then pick some other abstract object in math that you think humans have no innate programming for, and revise my example above.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b>Humans have found lots of text written in "Linear A" that was used by the inhabitants of Crete about 4000 years ago<span class="gmail_default">,</span> and the even older writing system used by the Indus Valley Civilization, <span class="gmail_default">but</span> <span class="gmail_default">m</span>odern scholars have been unable to decipher either of <span class="gmail_default">them</span> even though<span class="gmail_default">, unlike the AI,</span> they were written by members of their own species<span class="gmail_default">. A</span>nd the last person who could read ancient Etruscan was the Roman emperor Claudius.<span class="gmail_default"> The trouble is those civilizations are a complete blank, we have nothing to go on, today we don't even know</span> what spoken<span class="gmail_default"> </span>language family those civilizations used. </b></font></div><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b>Egyptian hieroglyphics would have also remained undeciphered except that we got a lucky break, we found the Rosetta Stone which contained the same speech written in both hieroglyphics and an early form of Greek which scholars could already read. Somehow AI has found their own "Rosetta Stone", I just wish I knew what it was. </b></font></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">If the set of language samples is large enough we could trivially decode these languages today.</div><div dir="auto"><br></div><div dir="auto">Simply train a LLM on them using the samples we have.</div><div dir="auto"><br></div><div dir="auto">Then e can perform a similarity analysis (of the same kind used in the "platonic representation hypothesis" article you shared earlier. This will reveal a map between related concepts in our language vs. in theirs.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"></div></div>
</div>
</blockquote></div></div></div>