<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Mar 26, 2023 at 10:01 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">Do you agree that the LLM must know the spatial meanings of words like 'right', 'left", 'up', and 'down'? If not, how else could it create an accurate spatial map of the rooms in the house and their relative positions?</div></div></blockquote><div><br><br>It knows how the words "left" and "right" relate to each other and to other symbols related to spatial dimensions, syntactically but with no access to the referents to give them meaning. The fact that  GPT can construct a coherent essay from what is to it meaningless symbols is to me no less amazing than the fact that it can create a mathematical model from meaningless symbols. It's all basically the same amazing process, a giant web of inter-relationships between meaningless symbols that have no meaning to it, but which do have meaning to us on account of it was trained on the forms and patterns of our language.<br><br>-gts<br><br></div></div></div>