<div dir="ltr"><div dir="ltr">On Thu, Apr 27, 2023 at 11:06 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com" target="_blank">gsantostasi@gmail.com</a>> wrote:<br></div><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Gordon,<div>Please listen to this video. <br>At the end (33''), Lemoine explicitly addresses the people that say these models only predict the next word. He says it is technically incorrect and he explains why. Notice he even uses the word "grounded" to explain that these systems actually have other knowledge sources to infer the best way to answer a query. </div><div><br><a href="https://www.youtube.com/watch?v=d9ipv6HhuWM" target="_blank">https://www.youtube.com/watch?v=d9ipv6HhuWM</a></div></div></blockquote><div><br>I had already watched it and did not notice any intelligent discussion about the grounding problem, so I went back and watched it again at the section you cited. His words to the effect of "being grounded in other informational backends, knowledge graphs [etc]" is not what is meant by grounding in the sense meant by philosophers. Grounding is about how symbols are grounded in or to experience, not merely to yet more symbolic information.<br><br>By the way, I can see why some people suggested he seek help from mental health professionals, and why Google was inclined to let him go. As I understand the story, he went to his superiors or to HR and pleaded on the behalf of his little friend inside the computer who supposedly has real emotions and a soul.<br><br>-gts<br><br><br></div></div></div>
</div>