<div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023 at 3:18 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com">gsantostasi@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><b>"LLMs ain't AGI and can't be upgraded into AGI, though they can be components of AGI systems with real cognitive architectures and reasoning/grounding ability."<br></b>Gordon,<br>What this has to do with the grounding ability? Nothing.</div></blockquote><div><br>Ben is saying that LLMs have no "reasoning/<b>grounding</b> ability," but can be components of AGI systems that do. <br><br>You'll have to ask Ben how he thinks AGI systems will have grounding ability, but it is clear that he believes LLMs do not have this ability and I agree.<br><br> (GPT-4 also agrees that it cannot solve the symbol grounding problem for itself, but you call it a liar or a victim of brainwashing).<br><br>-gts<br><br> -gts</div></div></div>