<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sun, Feb 8, 2026 at 10:30 AM Stefano Ticozzi <<a href="mailto:stefano.ticozzi@gmail.com">stefano.ticozzi@gmail.com</a>> wrote:</span></div></div><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>The article you linked here appeared to refer to a convergence toward a Platonic concept of the Idea; it therefore seemed relevant to recall that Platonic Ideas have been extensively demonstrated to be “false” by science.</i></font></div></div></div></blockquote><div><br></div><font size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"></span><b><font face="tahoma, sans-serif">No. You can't use a tape measure to prove that a poem is "false". Science deals with what you can see, hear, feel, taste and smell, Plato was dealing with the metaphysical, the underlying nature of being. However, far from disproving it, in the 20th century Quantum Mechanics actually gave some support to Plato's ideas. In Plato's Allegory of the Cave we can only see the "shadows" of the fundamental underlying reality, and in a similar way modern physics says we can only observe reality through a probability (not a certainty) obtained by the Quantum Wavefunction.  </font></b></font></div><div class="gmail_quote gmail_quote_container"><font size="4"><font face="tahoma, sans-serif"><b><br></b></font></font><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div dir="auto"><font size="4" face="georgia, serif"><i> <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>human language has grown and developed around images, driven almost exclusively by the need to emulate the sense of sight.</i></font></div></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>We may not be able to directly<span class="gmail_default" style=""> </span>observe fundamental underlying reality<span class="gmail_default" style=""> but we are certainly affected by it, and o</span>ver the eons human language has been optimized<span class="gmail_default" style=""> to maximize the probability that one's genes get into the next generation. So although words are not the fundamental reality they must be congruent with it. That has been known for a long time but very recently AI has taught us that the connection is much deeper and far more subtle than previously suspected. </span></b></font></div><div><br></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="">Just a few years ago many people (including me) were saying that words were not enough and that for a machine to be truly intelligent it would need a body, or at least sense organs that can interact with the real physical world. But we now know that is untrue. It is still not entirely clear, at least not to me, exactly how it is possible for words alone to do that, but it is an undeniable fact that somehow it is.</span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style=""><br></span></b></font></div><div><b style="color:rgb(80,0,80)"><font face="tahoma, sans-serif"><font size="4">John K Clark    See what's on my new list at  </font><font size="6"><a href="https://groups.google.com/g/extropolis" rel="nofollow noreferrer" target="_blank">Extropolis</a></font></font></b></div><div><b style="color:rgb(80,0,80)"><font face="tahoma, sans-serif"><br></font></b></div><font size="1" color="#ffffff">v53</font><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="">  </span> </b></font></div><div><br></div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Il dom 8 feb 2026, 13:13 John Clark <<a href="mailto:johnkclark@gmail.com" target="_blank">johnkclark@gmail.com</a>> ha scritto:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sat, Feb 7, 2026 at 12:14 PM Stefano Ticozzi <<a href="mailto:stefano.ticozzi@gmail.com" rel="noreferrer" target="_blank">stefano.ticozzi@gmail.com</a>> wrote:</span></div></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font face="georgia, serif" size="4"><i><span class="gmail_default">> </span>Scientific thought has long since moved beyond Platonism,</i></font></div></div></blockquote><div><br></div><font size="4" face="tahoma, sans-serif"><b>Philosophical thought perhaps<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">,</span> but scientific thought never embraced Platonism because the most famous of the ancient Greeks were good philosophers but lousy scientists. Neither Socrates, Plato or Aristotle used the Scientific Method. Aristotle wrote that women had fewer teeth than men, it's known that he was married, twice in fact, yet he never thought of just looking into his wife's mouth and counting. Today thanks to AI, for the first time some very abstract philosophical ideas can actually be tested<span class="gmail_default"> scientifically. </span></b></font><br><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>1. Ideas do not exist independently of the human mind.<span class="gmail_default">  </span>Rather, they are constructs we develop to optimize and structure our thinking.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>True but irrelevant.<span class="gmail_default"> </span> </b></font></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><font size="4" face="tahoma, sans-serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>2. Ideas are neither fixed, immutable, nor perfect; they evolve over time, as does the world in which we live—in a Darwinian sense.<span class="gmail_default"> </span>For instance, the concept of a sheep held by a human prior to the agricultural era would have differed significantly from that held by a modern individual.</i></font></div></blockquote><div><br></div><div><font face="tahoma, sans-serif" size="4"><b>The meanings of words <span class="gmail_default">and</span> of groups of words<span class="gmail_default"> evolve over the eons in fundamental ways, but camera pictures do not.  And yet minds educated by those two very different things become more similar as they become smarter. That is a surprising revelation that has, I think, interesting implications. </span></b></font></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>In my view, the convergence of AI “ideas” (i.e., language and visual models) is more plausibly explained by a process of continuous self-optimization, performed by systems that are trained on datasets and information which are, at least to a considerable extent, shared across models.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Do you claim that the <span class="gmail_default">very </span>recent<span class="gmail_default"> discovery that the behavior of minds that are trained exclusively by words and </span>minds that are trained exclusively by<span class="gmail_default"> pictures are similar and the discovery that the smarter those two minds become the greater the similarities, has no important philosophical ramifications? </span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default"><br></span></b></font></div><div><b style="color:rgb(80,0,80)"><font face="tahoma, sans-serif"><br></font></b></div><div><b style="color:rgb(80,0,80)"><font face="tahoma, sans-serif"><br></font></b></div><font size="1" color="#ffffff">4x@</font><div><b style="color:rgb(80,0,80)"><font face="tahoma, sans-serif"><br></font></b></div><div><b style="color:rgb(80,0,80)"><font face="tahoma, sans-serif"><br></font></b></div><div><br></div><div><br></div><div><br></div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><br><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">Il sab 7 feb 2026, 12:57 John Clark via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> ha scritto:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div style="font-family:arial,helvetica,sans-serif"><a href="https://www.quantamagazine.org/distinct-ai-models-seem-to-converge-on-how-they-encode-reality-20260107/?mc_cid=b288d90ab2&mc_eid=1b0caa9e8c" style="font-family:Arial,Helvetica,sans-serif" rel="noreferrer noreferrer" target="_blank"><b><font size="4" face="tahoma, sans-serif">Why do the language model and the vision model align? Because they’re both shadows of the same world</font></b></a></div><div style="font-family:arial,helvetica,sans-serif"><br></div><div style="font-family:arial,helvetica,sans-serif"><font size="4"><i>The following quote is from the above: </i></font></div><div style="font-family:arial,helvetica,sans-serif"><br></div><div><font size="4" face="tahoma, sans-serif"><b><span style="color:rgb(26,26,26)">"More powerful AI models seem to have more similarities in their representations than weaker ones. S</span><span style="color:rgb(26,26,26)">uccessful AI models are all alike, and every unsuccessful model is unsuccessful in its own particular way.[...] </span><span style="color:rgb(26,26,26)">He would feed the pictures into the vision models and the captions into the language models, and then compare clusters of vectors in the two types. He observed a steady increase in representational similarity as models became more powerful. It was exactly what the Platonic representation hypothesis predicted."</span></b></font></div><div style="font-family:arial,helvetica,sans-serif"><br></div></div>
</blockquote></div></div>
</blockquote></div></div>
</blockquote></div></div>
</blockquote></div></div>