<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Mar 26, 2023, 11:50 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Mar 26, 2023 at 9:29 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>I do not understand why you interpret it as so amazing that words alone were sufficient to construct a mathematical model and graph of a house. That demonstrates that GPT-4 is intelligent, but the question, as I thought we understood in our last exchange, is whether it had a conscious understanding of the words it used to construct the model, where understanding entails holding the word meanings consciously in mind.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">No this isn't my point. Ignore the issue of consciousness here.</div><div dir="auto"><br></div><div dir="auto">My point is that this shows the LLM has overcome the symbol grounding problem. It has somehow learned how to correctly interpret the meanings of the words.</div></div></blockquote><div><br>I don't see how creating a mathematical model from words proves anything of the sort. As one of my other detractors (Giovanni, I think) pointed out correctly, mathematics is another form of language. How does the fact that GPT "knows" that "one plus one equals two" can also be expressed numerically as "1+1=2" tell us anything about the grounding problem, which entails having access to referents outside of language? <br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Do you agree that the LLM must know the spatial meanings of words like 'right', 'left", 'up', and 'down'? If not, how else could it create an accurate spatial map of the rooms in the house and their relative positions?</div><div dir="auto"><br></div><div dir="auto">Jason </div></div>