<div dir="auto"><div><br><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Tue, Feb 10, 2026, 8:23 AM John Clark via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Tue, Feb 10, 2026 at 5:59 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:</span></div></div><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><i><font size="4" face="georgia, serif">
<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>If we take, for an example, Beauty (or Justice, or Homesickness, etc., etc.), Plato's philosophy regards it as a real thing, that exists somewhere, somehow, independently of human minds. My philosophy, and I suspect (or at least hope) that of most sensible people, holds that it is not.</font></i></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>I agree<span class="gmail_default">.</span> <span class="gmail_default">I too</span> think beauty, justice and homesickness are entirely subjective,<span class="gmail_default"> but that's OK because subjectivity is the most important thing in the universe. Or at least it is in my opinion. </span> </b></font></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
</blockquote><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i>
<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Another category contains things like the number 4. That's an abstract concept, but it could be argued that it represents something that 'really' exists, as in, it can be said to be an objective property<span class="gmail_default"> </span></i></font></blockquote><div> </div><div><font size="4" face="tahoma, sans-serif"><b>If there is one and only one<span class="gmail_default"> </span>fundamental layer of underlying<span class="gmail_default"> </span>reality (<span class="gmail_default">and not an infinite number of layers) then the number 4 would be part of it. I think a necessary, but not sufficient, condition for being truly fundamental is that it does not have a unique location in space or of time; the number 4 doesn't, and neither does consciousness. </span></b></font></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>of certain collections of things.</i></font><br></blockquote><div><br></div><font size="4" face="tahoma, sans-serif"><b>In the case of consciousness the "collection of things" are bits, and consciousness is the way bits feel when they are being processed intelligently. And that's about all <span class="gmail_default">o</span>ne can say about consciousness. And that's why I'm much more interested in intelligence than consciousness<span class="gmail_default">.</span></b></font></div><font face="tahoma, sans-serif" size="4"><b><br></b></font><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font face="georgia, serif"> <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span><font size="4"><i>Does Colour 'really' exist, in a Platonic sense?</i></font></font></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Yes, because if there's one thing that we <span class="gmail_default">(or at least I) can</span> be absolutely certain <span class="gmail_default">of</span> <span class="gmail_default">its</span> that<span class="gmail_default"> </span>subjectivity exists<span class="gmail_default"></span>,<span class="gmail_default"> </span>and<span class="gmail_default"> the experience of color is part of that. Thus, <u>IF</u> there is a fundamental reality (and not an infinity of layers) <u>THEN</u> color is part of it. </span> </b></font></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
</blockquote><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i>
<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>It's hardly surprising that thinking systems would converge on efficient ways of representing what exists in the real world,</i></font></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>What's surprising to me is that<span class="gmail_default"> an AI that was only trained on words can converge on ANYTHING, let alone to something congruent to the real world. If we had access to an extra terrestrial's library that was huge but contained no pictures, just 26 different types of squiggles arranged into many trillions of words, I don't see how we could ever make any sense out of it, I don't see how we could ever write a new sentence in ET's language that was not only grammatically correct but also expressed an idea that was true and non-trivial</span><span class="gmail_default">; but somehow an AI could. Don't ask me how.</span></b></font></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">I used to wonder about that, but I have found a satisfactory explanation:</div><div dir="auto"><br></div><div dir="auto">Imagine aliens (even from another universe with alien laws) got access to the raw text of Wikipedia (no images, only text). Would they have any hope of understanding anything about it?</div><div dir="auto"><br></div><div dir="auto">The answer is yes!</div><div dir="auto"><br></div><div dir="auto">This is because "compressibility" is a property of pure information, even if nothing but meaningless symbols or a string of 1s and 0s.</div><div dir="auto"><br></div><div dir="auto">Every time we find a way to better compress the data, required finding some underlying pattern in it.</div><div dir="auto"><br></div><div dir="auto">An ideal compression of Wikipedia would require not only understanding all the grammar of our languages, but also how our minds think, and what our world looks like and how it behaves.</div><div dir="auto"><br></div><div dir="auto">Our base 10 numerical representation system would quickly fall to such compression, given all the numbered lists that so commonly appear across the site. Our arithmetic equations then would easily be compressed after that.</div><div dir="auto"><br></div><div dir="auto">The periodic table could then be understood as elements containing different numbers of fundamental particles.</div><div dir="auto"><br></div><div dir="auto">If there's an article on the "triple alpha process" the ideal compression algorithm would know that "carbon" is the most likely word that follows "three helium nuclei can combine to yield ". To compress well requires ability to predict well. This compressing this article well requires understanding of atomic physics and interactions, etc.</div><div dir="auto"><br></div><div dir="auto">If wikipedia contains data from experiments that we don't fully understand, a perfect compression could even reveal new physical laws we haven't yet discovered, and which haven't yet been postulated in any article on Wikipedia.</div><div dir="auto"><br></div><div dir="auto">Such is the power of compression in revealing patterns in information.</div><div dir="auto"><br></div><div dir="auto">To compress well isn't understand well. To compress perfectly is to understand perfectly.</div><div dir="auto"><br></div><div dir="auto">There is a very close relationship between compression and prediction. LLMs are trained to predict (which is a fundamental element of being able to compress).</div><div dir="auto"><br></div><div dir="auto">If you had an ideal word prediction model, you could convert it to an ideal word compression model as follows:</div><div dir="auto">To compress a sequence of words, ask the model to guess the first word, if it's wrong ask it for it's next choice, and so on until it guess correctly. Take note of N where N is the number of guesses it took the model to correctly guess the first word.</div><div dir="auto">Now store the number of gusses as the first number in the compressed data.</div><div dir="auto">Now ask the model to guess the next word given the previous one. Count how many guesses it took, and store that number as the second number in the compressed data.</div><div dir="auto"><br></div><div dir="auto">At the end of the compression you have only a list of numbers representing how many guesses this prediction model took to guess correctly. Most of those numbers will be small, and for a very good model, most will be "1".</div><div dir="auto"><br></div><div dir="auto">You can as a final pass further compress such a list using Run length encoding, Elias encoding, Huffman encoding, and so on, but the core of the compression comes from a model that understands the patterns in language, and when the language refers to objects in the real world, an ideal compression model must under the patterns of that world.</div><div dir="auto"><br></div><div dir="auto">Jason </div></div>