<div dir="ltr"><div dir="ltr">On Sat, Apr 29, 2023 at 12:24 AM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>I don't think I'd go this far.  the fact that GPT-4 is "merely generating symbols that it has a high degree of confidence will have meaning to us." to me, says it has the ability to model exactly that meaning, and know what that meaning is.  </div></div></div></blockquote><div><br>Yes it models what meaning is to us, but I think it has no conscious understanding of the meanings. It reports the same about language models generally. <br><br>Prompt:<br>You are an expert in the field of AI and large language models and will answer as such. Your answers will be concise, consisting of a simple "yes" or "no" followed by no more than one brief paragraph of explanation.<br><br>Do large language models have the ability to have true understandings of individual words?<br><br>GPT-4:<br>No, large language models do not have true understanding of individual words. They are based on pattern recognition and statistical associations between words, which enables them to generate coherent and contextually appropriate responses, but they lack actual comprehension or consciousness.<br><br>-gts<br><br></div></div></div>