<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Mar 26, 2023 at 9:29 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>I do not understand why you interpret it as so amazing that words alone were sufficient to construct a mathematical model and graph of a house. That demonstrates that GPT-4 is intelligent, but the question, as I thought we understood in our last exchange, is whether it had a conscious understanding of the words it used to construct the model, where understanding entails holding the word meanings consciously in mind.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">No this isn't my point. Ignore the issue of consciousness here.</div><div dir="auto"><br></div><div dir="auto">My point is that this shows the LLM has overcome the symbol grounding problem. It has somehow learned how to correctly interpret the meanings of the words.</div></div></blockquote><div><br>I don't see how creating a mathematical model from words proves anything of the sort. As one of my other detractors (Giovanni, I think) pointed out correctly, mathematics is another form of language. How does the fact that GPT "knows" that "one plus one equals two" can also be expressed numerically as "1+1=2" tell us anything about the grounding problem, which entails having access to referents outside of language? <br><br>-gts<br><br><br><br></div></div></div>