<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Mar 19, 2023, 2:04 AM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div>Consider that LLMs are like dictionaries. A complete dictionary can give you the definition of any word, but that definition is in terms of other words in the same dictionary. If you want to understand  *meaning* of any word definition,  you must look up the definitions of each word in the definition, and then look up each of the words in those definitions, which leads to an infinite regress.  </div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Could a superb alien intelligence, if it happened upon a dictionary from our civilization, having only words and no pictures inside, figure out what all the words meant?</div><div dir="auto"><br></div><div dir="auto">I tend to think they could. There is information in the structure of the words and their interrelationships. Take every word's definition and it would form a vast connected graph. Patterns in this graph would emerge and in some places the aliens would see an analogy between the parts of this graph and elements in the real world.</div><div dir="auto"><br></div><div dir="auto">Perhaps it would be mathematical objects like circles spheres and cubes and the five platonic solids or the examples of prime numbers or definition of Pi, perhaps it would be physical objects like atoms, protons, electrons and neutrons or the 92 naturally occurring elements. Perhaps it would be in biological definitions of nucleic and amino acids, but somewhere in this graph they would find an analogy with the real world. It would start off slowly at first, but like solving a puzzle, each new word solved is a clue that further makes solving the rest that much easier.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div dir="auto"><br></div><div dir="auto">Dictionaries do not actually contain or know the meanings of words, and I see no reason to think LLMs are any different.</div><div dir="auto"></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Is a LLM more like a dictionary or more like the language center of the human brain?</div><div dir="auto"><br></div><div dir="auto">If the latter, then I could pose the following counterargument: "The human brain's language center does know the meanings of words, and I see no reason to think LLMs are any different."</div><div dir="auto"><br></div><div dir="auto">To move forward, we need to answer:</div><div dir="auto"><br></div><div dir="auto">1. What is meaning?</div><div dir="auto">2. Do human brains contain meaning?</div><div dir="auto">2. How is meaning present or inherent in the organization of neurons in the human brain?</div><div dir="auto">4. Can similar organizations that create meaning in the human brain be found within LLMs?</div><div dir="auto"><br></div><div dir="auto">Answering these questions is necessary to move forward. Otherwise we will only go back and forth with some saying that LLMs are more like dictionaries, and others saying LLMs are more like language processing centers of human brains.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"> Sat, Mar 18, 2023, 3:39 AM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com" target="_blank" rel="noreferrer">gordon.swobe@gmail.com</a>> wrote:</div><div dir="auto"><div class="gmail_quote" dir="auto"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I think those who think LLM  AIs like ChatGPT are becoming conscious or sentient like humans fail to understand a very important point: these software applications only predict language. They are very good at predicting which word should come next in a sentence or question, but they have no idea what the words mean. They do not and cannot understand what the words refer to. In linguistic terms, they lack referents.<br><br>Maybe you all already understand this, or maybe you have some reasons why I am wrong.<div><br></div><div>-gts</div></div>
</blockquote></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>