<div dir="auto"><div><br><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Fri, Feb 13, 2026, 6:59 AM John Clark <<a href="mailto:johnkclark@gmail.com">johnkclark@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Thu, Feb 12, 2026 at 8:54 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:</span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif"><br></span></div></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>></span> before the average student has even open <span class="gmail_default">a</span> chemistry book he has already been exposed to nearly two decades of real world experience and has an intuitive feel for things like mass, velocity<span class="gmail_default">, heat</span><span class="gmail_default"> and</span> position<span class="gmail_default">,</span> so he c<span class="gmail_default">an</span> understand what the book is saying, </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><i><font face="georgia, serif" size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>But for the human brain to read that point , it has to construct it's full understanding of the real world using nothing more than the *raw statistics* as it finds in the patterns and correlations of nerves firing at different times.<span class="gmail_default"> </span>This is all the brain ever sees of the outside world. The student didn't receive images and sounds and smells, the brain had to invent those out of raw "dots and dashes" from the nerves.<span class="gmail_default"> </span>If the brain can do such a thing, then is it any more surprising that another neural network could bootstrap itself to a degree of understanding from nothing more than data that contains the statistical correlations?</font></i></div></div></blockquote><br><div><font size="4" face="tahoma, sans-serif"><b>Yes I think it is<span class="gmail_default"> more surprising</span>.<span class="gmail_default"> </span>For humans<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span><span class="gmail_default">most of</span> those dots and dashes<span class="gmail_default"> came <u>directly</u> from the outside physical world, but for an AI that was trained on nothing but text none of them did, all those dots and dashes came from another brain and <u>not directly</u> from the physical world. </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Both reflect the physical world. Directness or indirectness I don't see as relevant. Throughout your brain there are many levels of transformation of inputs. At each stage, the higher levels receive increasingly less direct, and less raw inputs. Yet each stage of processing finds a way to make sense out of the previous stage's outputs. So whether inputs are raw, or pre-processed in some way, must make no difference.</div><div dir="auto"><br></div><div dir="auto">Consider: I could train a neural network to monitor the health of a retail store by training it on every transaction between every customer and vendor, or I could train a neural network on the quarterly reports issues by the retail store's accountant to perform the same analysis. That one set of data has gone though and account's brain doesn't make the data meaningless or inscrutable. If anything, the prior sense-making by the accountant should make the second network much easier to train than giving it raw transaction data. Likewise, giving a LLM distilled human thought should be a shortcut compared to giving a network raw sensory data as received by human retinas and ear drums.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><br></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Think about the problem from the perspective of a human brain, alone inside in a dark, quiet, hollow bone. With only a fiberoptic cable connecting it to the outside world.<span class="gmail_default"> </span>This cable sends only bits. The brain must figure out how to make sense of it all, to understand the "real world" from this pattern of information alone.</i></font></div></div></blockquote><div> </div><div><font size="4" face="tahoma, sans-serif"><b>Yes we are a brain in a<span class="gmail_default"> vat</span> made of bone<span class="gmail_default">, but we have something that an AI trained on nothing but text does not have, </span>a fiber optic cable connect<span class="gmail_default">ed <u>directly</u></span> to the outside world<span class="gmail_default"> and not indirectly through an intermediary; however that complication apparently makes no difference because the AI can still figure things out about the physical world, and that is what I find surprising.  </span></b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">If the signal is totally random or otherwise incompressible, then the task is hopeless.  A network trained to predict on random data cannot succeed. To be scrutable, all that's needed are regularities, patterns, an entropy per bit < 1.</div><div dir="auto"><br></div><div dir="auto">The level of directness or indirectness is of no importance for learning the patterns of the outside world, so long as the patterns in the outside world are reflected in the text. If, on the other hand, we gave the LLM English text that was all about life and events in some alien universe with different laws, particles, chemistry, etc., then the LLM would learn and understand that different universe, not ours.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><div><font face="tahoma, sans-serif" size="4"><b><span class="gmail_default"> </span></b></font></div></div></div></div></blockquote></div></div></div></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>>> </span>The periodic table, and Wikipedia's article on each element, lists atomic number (number of protons) in addition to atomic weights.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>> </span>But how could the poor AI<span class="gmail_default"> make sense out of that Wikipedia article if it had no understanding of what the sequence of squiggles "w-e-i-g-h-t-s" even means?  I don't deny that it can understand what it means, I just don't know how. </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>I gave you an example, regarding Pi, and surrounding words.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>I can see how an AI that was trained on nothing but text<span class="gmail_default"> could understand that Pi is the sum of a particular infinite sequence, but I don't see how it could understand the use of Pi in geometry because it's not at all clear to me how it could even have an understanding of the concept of "space"; and even if it could, the formulas that we learned in grade school about how Pi can be used to calculate the circumference and area of a circle from just its radius would be incorrect except for the special case where space is flat. </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Even if the LLM lacks a direct sensory experience of 3-dimensional world, it can still develop an intellectual and even an intuitive understanding of it, in the same way that a human geometer with no direct experience of 5 dimensional spaces, can still tell you all about the various properties of shapes in such a space, and reason about their relationships and interactions.</div><div dir="auto"><br></div><div dir="auto">Consider how much theoretical physicists understood about black holes and atomic nuclei, at times long before anyone had ever seen one. Intellectual understanding can be honed even in the absence of sensorial experience.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default">>> a neural network can model any continuous function with arbitrary precision, but the vast majority of continuous functions do not model anything fundamental in either Newtonian or Quantum Physics, so</span></b></font><b style="font-family:tahoma,sans-serif;font-size:large"><span class="gmail_default"> how does an AI differentiate between those that do and those that don't? </span> </b></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Are you asking how neural networks learn functions from samples of input and output? </i></font></div></div></blockquote><div><br></div><div class="gmail_default"><font size="4" face="tahoma, sans-serif"><b>No.</b></font></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="tahoma, sans-serif"><span class="gmail_default" style="font-style:italic">> </span><i>If you asking how an neural network can approximate any computable logic circuit? </i><span class="gmail_default">[...]<i> </i></span><i>If you are asking something else not covered here, you will need to be more specific.</i></font></div></div></blockquote><div> </div><font size="4" face="tahoma, sans-serif"><b>I'm asking how a neural network that was trained on nothing but a sequence of squiggles (a.k.a. text) can differentiate between a computable function that models a fundamental physical law and a computable function that does NOT model a fundamental physical law.<span class="gmail_default"> It is now beyond doubt that a neural network can do exactly that, I'm just saying I'm surprised and a little confused by that fact, and I think even some of the top people at the AI companies are also a little confused.   </span></b></font></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Among the myriad TB or PB of training materials supplied to these LLMs, are physics texts books and problem sets. Completing the sentences on the pages that list physics problems requires understanding the relevant formulae and when to apply the right one in the right context.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>how can we explain that LLMs can play chess? To play chess well requires a model/function that understands chess, how the pieces move, relate, attack, and what the goal of the game is. This is far beyond a mere "stochastic parrot" as some have attempted to describe LLMs as being.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>I certainly agree with that!<span class="gmail_default"> </span> But to play a game of chess, even at the grandmaster level,<span class="gmail_default"> it would not be necessary for the AI to understand the concept of "space" or to have even a rudimentary understanding of any of the laws of physics.  </span></b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">No but you can see how one is just a toy example of the other.</div><div dir="auto"><br></div><div dir="auto">If one can understand how objects in the "universe of chess" operate, merely from reading squiggles about chess, and squiggles of recorded games of chess, then understanding the physical universe is not fundamentally different, it's the exact same problem, only at a larger scale (since the physical universe is more complex than the chess universe).</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
</blockquote></div></div>
</div>
</blockquote></div></div></div>