<div dir="ltr"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Thu, Feb 12, 2026 at 8:54 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif"><br></span></div></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>></span> before the average student has even open <span class="gmail_default">a</span> chemistry book he has already been exposed to nearly two decades of real world experience and has an intuitive feel for things like mass, velocity<span class="gmail_default">, heat</span><span class="gmail_default"> and</span> position<span class="gmail_default">,</span> so he c<span class="gmail_default">an</span> understand what the book is saying, </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><i><font face="georgia, serif" size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>But for the human brain to read that point , it has to construct it's full understanding of the real world using nothing more than the *raw statistics* as it finds in the patterns and correlations of nerves firing at different times.<span class="gmail_default" style=""> </span>This is all the brain ever sees of the outside world. The student didn't receive images and sounds and smells, the brain had to invent those out of raw "dots and dashes" from the nerves.<span class="gmail_default" style=""> </span>If the brain can do such a thing, then is it any more surprising that another neural network could bootstrap itself to a degree of understanding from nothing more than data that contains the statistical correlations?</font></i></div></div></blockquote><br><div><font size="4" face="tahoma, sans-serif"><b>Yes I think it is<span class="gmail_default" style=""> more surprising</span>.<span class="gmail_default" style=""> </span>For humans<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span><span class="gmail_default" style="">most of</span> those dots and dashes<span class="gmail_default" style=""> came <u>directly</u> from the outside physical world, but for an AI that was trained on nothing but text none of them did, all those dots and dashes came from another brain and <u>not directly</u> from the physical world. </span> </b></font></div><div><br></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Think about the problem from the perspective of a human brain, alone inside in a dark, quiet, hollow bone. With only a fiberoptic cable connecting it to the outside world.<span class="gmail_default" style=""> </span>This cable sends only bits. The brain must figure out how to make sense of it all, to understand the "real world" from this pattern of information alone.</i></font></div></div></blockquote><div> </div><div><font size="4" face="tahoma, sans-serif"><b>Yes we are a brain in a<span class="gmail_default" style=""> vat</span> made of bone<span class="gmail_default" style="">, but we have something that an AI trained on nothing but text does not have, </span>a fiber optic cable connect<span class="gmail_default" style="">ed <u>directly</u></span> to the outside world<span class="gmail_default" style=""> and not indirectly through an intermediary; however that complication apparently makes no difference because the AI can still figure things out about the physical world, and that is what I find surprising.  </span></b></font></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><div><font face="tahoma, sans-serif" size="4"><b><span class="gmail_default"> </span></b></font></div></div></div></div></blockquote></div></div></div></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>>> </span>The periodic table, and Wikipedia's article on each element, lists atomic number (number of protons) in addition to atomic weights.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>> </span>But how could the poor AI<span class="gmail_default"> make sense out of that Wikipedia article if it had no understanding of what the sequence of squiggles "w-e-i-g-h-t-s" even means?  I don't deny that it can understand what it means, I just don't know how. </span> </b></font></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>I gave you an example, regarding Pi, and surrounding words.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>I can see how an AI that was trained on nothing but text<span class="gmail_default" style=""> could understand that Pi is the sum of a particular infinite sequence, but I don't see how it could understand the use of Pi in geometry because it's not at all clear to me how it could even have an understanding of the concept of "space"; and even if it could, the formulas that we learned in grade school about how Pi can be used to calculate the circumference and area of a circle from just its radius would be incorrect except for the special case where space is flat. </span> </b></font></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default">>> a neural network can model any continuous function with arbitrary precision, but the vast majority of continuous functions do not model anything fundamental in either Newtonian or Quantum Physics, so</span></b></font><b style="font-family:tahoma,sans-serif;font-size:large"><span class="gmail_default"> how does an AI differentiate between those that do and those that don't? </span> </b></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Are you asking how neural networks learn functions from samples of input and output? </i></font></div></div></blockquote><div><br></div><div class="gmail_default" style=""><font size="4" style="" face="tahoma, sans-serif"><b style="">No.</b></font></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="tahoma, sans-serif"><span class="gmail_default" style="font-style:italic">> </span><i>If you asking how an neural network can approximate any computable logic circuit? </i><span class="gmail_default" style="">[...]<i> </i></span><i>If you are asking something else not covered here, you will need to be more specific.</i></font></div></div></blockquote><div> </div><font size="4" face="tahoma, sans-serif"><b>I'm asking how a neural network that was trained on nothing but a sequence of squiggles (a.k.a. text) can differentiate between a computable function that models a fundamental physical law and a computable function that does NOT model a fundamental physical law.<span class="gmail_default" style=""> It is now beyond doubt that a neural network can do exactly that, I'm just saying I'm surprised and a little confused by that fact, and I think even some of the top people at the AI companies are also a little confused.   </span></b></font><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>how can we explain that LLMs can play chess? To play chess well requires a model/function that understands chess, how the pieces move, relate, attack, and what the goal of the game is. This is far beyond a mere "stochastic parrot" as some have attempted to describe LLMs as being.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>I certainly agree with that!<span class="gmail_default" style=""> </span> But to play a game of chess, even at the grandmaster level,<span class="gmail_default" style=""> it would not be necessary for the AI to understand the concept of "space" or to have even a rudimentary understanding of any of the laws of physics.  </span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style=""><br></span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="">John K Clark</span></b></font></div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
</blockquote></div></div>
</div>