<div dir="ltr">Giovanni: We don't know how humans understand. The question is not if a LLM understands as a human but if it understand at all.<br><br>GPT-4: You are right that the understanding of human cognition is still an ongoing area of research, and there is much that remains to be discovered. Comparing human understanding to that of a language model like me can be challenging.<br><br>From a technical perspective, LLMs can be said to understand the text to a certain extent. My ability to process text and provide relevant responses is based on the recognition of patterns, relationships, and statistical associations in the data I have been trained on. <br><br><b><br>1) How do we know humans do not do the same?<br>2) Who cares if humans do not the same. Birds use feathers and flapping wings to fly, airplanes do not. They both fly. </b><br><br><br><br><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 26, 2023 at 9:55 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com">gsantostasi@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">It is so ridiculous Gordon, how can it tell you it doesn't understand if it cannot understand? <br>Do you know the paradox of the Cretan liar? Epimenides of Crete says that Cretans are always liars, but he was from Crete. So did he lie about Cretan being all liars? <br>Come on man. <br>Please do not evade my question. Explain how it arrived at the conclusion that it made a mistake when it colored the ground below the horizon of the same color of the sky and then it realized it was a mistake and it corrected the mistake. Please go ahead and explain how this can be done without a deep understanding of the context of the conversation, of spatial relationship, of conventions used in a very stylized drawing like this. <br>Please go ahead. <br>If you don't then I think every claim that GPT-4 lacks understanding is completely baseless. <br><br>LOL</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 26, 2023 at 9:44 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com" target="_blank">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 26, 2023 at 7:06 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><b><i><br>We, the end-users</i>, assign meaning to the words. Some people mistakenly project their own mental processes onto the language model and conclude that it understands the meanings.</b></div></div></blockquote><div> </div><div>This shows again Gordon has no clue about how LLMs work. They do understand because they made a model of language, it is not just a simple algo that measures and assign a probability to a cluster of world. It used stats as a starting point but I have already shown you it is more than that because without a model you cannot handle the combinatorial explosion of assigning probabilities to clusters of words. But of course Gordon ignores all the evidence presented to him. <br><br> LLMs need to have contextual understanding, they need to create an internal model and external model of the world. <br><br>GPT-4 if told to analyze an output it gave, can do that and realize what it did wrong. I have demonstrated this many times when for example it understood that it colored the ground below the horizon in a drawing the same as the sky. The damn thing said, "I apologize, I colored in the wrong region, it should have been all uniform green". It came up with this by itself!<br>Gordon, explain how this is done without understanding. <br>You NEVER NEVER address this sort of evidence. NEVER. <br><br>If a small child had this level of self-awareness we would think it is a very f.... clever child. <br>It really boils my blood that there are people repeating this is not understanding.<br><br>As Ben said before or we then say all our children are parrots and idiots without understanding, and actually all of us, that all the psychological and cognitive tests, exams, different intellectual achievements such as creativity and logical thinking, and having a theory of mind are useless or we have to admit that if AIs that show the same abilities of a human (or better) in different contexts then should be considered as signs of having a mind of their own. <br><br>Anything else is intellectually dishonest and just an ideological position based on fear and misunderstanding.</div></div></blockquote><div><br>This only shows me that you are one of those people who mistakenly project your own mental processes onto the model. In so doing, you deceive yourself such that you believe wrongly the model understands the meanings when it is you who understands them. But of course I already knew that.<br><br>Not only does the model have no true understanding of the meanings, but it flat out tells you it doesn't:<br><br>>  <b><span style="color:rgb(80,0,80)">My responses are generated based on patterns in the text and data that I have been trained on, and I do not have the ability to truly</span><span style="color:rgb(80,0,80)"> understand the meaning of the words I generate.</span><span style="color:rgb(80,0,80)"> <br>> -GPT<br><br></span></b></div><div><span style="color:rgb(80,0,80)">-gts</span></div></div></div>
</blockquote></div>
</blockquote></div>