<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Mar 18, 2023, 5:41 AM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I think those who think LLMĀ  AIs like ChatGPT are becoming conscious or sentient like humans fail to understand a very important point: these software applications only predict language. </div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">There is a great deal packed into "predicting language". If I ask a LLM to explain something to a 3rd grader, it models the comprehension capacity and vocabulary of a typical third grade student. It has a model of their mind. Likewise if I ask it to impersonate by writing something they Shakespeare or Bill Burr might have produced, it can do so, and so it has a ln understanding of the writing styles of these individuals. If I ask it to complete the sentence: a carbon nucleus may be produced in the collision of three ...", it correctly completes the sentence demonstrating an understanding of nuclear physics. If you provided it a sequence of moves in a tic-tac-toe game as nd asked it for a winning move it could do so, showing that the LLM understands and models the game of tic-tac-toe. A sufficiently trained LLM might even learn to understand the different styles of chess play, if you asked it to give a move in the style of Gary Kasparov, then at some level the model understands not only the game of chess but the nuances of different player's styles of play. If you asked it what major cities are closest to Boston, it could provide them, showing an understanding of geography and the globe.</div><div dir="auto"><br></div><div dir="auto">All this is to say, there's a lot of necessary and required understanding (of physics, people, the external world, and other systems) packed into the capacity to "only predict language."</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">They are very good at predicting which word should come next in a sentence or question, but they have no idea what the words mean.</div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I can ask it to define any word, list synonymous words, list translations of that words in various languages, and to describe the characteristics of an item referred to by that word if it is a noun. It can also solve analogies at a very high level. It can summarize the key points of a text, by picking out the most meaningful points in that text. Is there more to having an idea of what words mean than this?</div><div dir="auto"><br></div><div dir="auto">Can you articulate what a LLM would have to say to show it has a true understanding of meaning, which it presently cannot say?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"> They do not and cannot understand what the words refer to. In linguistic terms, they lack referents.<br></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Would you say Hellen Keller lacked referents? Could she not comprehend, at least intellectually, what the moon and stars were, despite not having any way to sense them?</div><div dir="auto"><br></div><div dir="auto">Consider also: our brains never make any direct contact with the outside world. All our brains have to work with are "dots and dashes" of neuronal firings. These are essentially just 1s and 0s, signals without referents. Yet, somehow, seemingly magically, our brains are able to piece together an understanding of the outside world from the mere patterns present in these neural firings.</div><div dir="auto"><br></div><div dir="auto">These LLMs are in a similar position. They receive only a patterns of signals as it exists in a corpus of text, the text is itself the output of minds which are similarly trapped in their skulls. Now, can a LLM learn some things about the minds that produced this text, just as our minds learn some things about the external world which produces the pattern of neural firings our brains receive?</div><div dir="auto"><br></div><div dir="auto">I see no reason why LLMs could not, when we clearly can and do.</div><div dir="auto"><br></div><div dir="auto">JasonĀ </div></div>