<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Mar 26, 2023, 11:19 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Mar 26, 2023 at 8:42 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">I was hoping most of all you would get a chance to see and respond to this:</div><div dir="auto"><br></div><div dir="auto">Page 51 of this PDF: <a href="https://arxiv.org/pdf/2303.12712.pdf" target="_blank" rel="noreferrer">https://arxiv.org/pdf/2303.12712.pdf</a> </div><div dir="auto"><br></div><div dir="auto">As this might be the most important and convincing page in the document for the purposes of our discussion. To me this proves without a doubt they GPT-4 has overcome the symbol grounding problem. That is to say, it has convincingly bootstrapped the meaning of the words as they map to reality.</div><div dir="auto"><br></div><div dir="auto">This is because *words alone* were sufficient for GPT-4 to construct a mathematical model (a graph with edges and vertices) that is consistent with the layout of rooms within the house, as they were described *purely with words*. Is there any other way to interpret this?</div></div></blockquote><div><br>I do not understand why you interpret it as so amazing that words alone were sufficient to construct a mathematical model and graph of a house. That demonstrates that GPT-4 is intelligent, but the question, as I thought we understood in our last exchange, is whether it had a conscious understanding of the words it used to construct the model, where understanding entails holding the word meanings consciously in mind.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">No this isn't my point. Ignore the issue of consciousness here.</div><div dir="auto"><br></div><div dir="auto">My point is that this shows the LLM has overcome the symbol grounding problem. It has somehow learned how to correctly interpret the meanings of the words.</div><div dir="auto"><br></div><div dir="auto">Jason </div></div>