<div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023, 2:20 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><b>"LLMs ain't AGI and can't be upgraded into AGI, though they can be components of AGI systems with real cognitive architectures and reasoning/grounding ability."<br></b>Gordon,<br>What this has to do with the grounding ability? Nothing.<br>In fact, I would agree with 90 % of the sentence (besides can't be upgraded into AGI because we don't know yet).</div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I would go further and say it is self-contradictory.  If it can be a component of an AGI system, then adding the rest of the AGI system to a LLM is a considerable upgrade - and so, as an upgrade, would upgrade that LLM to an AGI.</div><div dir="auto"></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"></div>
</blockquote></div></div></div>