<div dir="ltr"><div dir="ltr">On Fri, Apr 28, 2023 at 12:36 AM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com">gsantostasi@gmail.com</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><b> grounding in the sense meant by philosophers<br></b>Philosophers are completely useless in this discussion. </div></blockquote><div><br>It is more than mere philosophy. The symbol grounding problem is one of the central challenges in AI. This is why Ben Goertzel mentioned it as one of the reasons he thinks an LLM cannot be the core of AGI.<br><br>> You are simply begging the question by repeating that the AI cannot have a self of awareness or real intelligence because it has no physical referents.<br></div><div><br> Referents needn't be physical objects, and in fact in the final analysis, even the referents of physical objects are subjective. I explained many times, but you don't care to listen.</div><div> <br>-gts<br><br><br></div></div></div>