<div dir="ltr"><b>"LLMs ain't AGI and can't be upgraded into AGI, though they can be components of AGI systems with real cognitive architectures and reasoning/grounding ability."<br></b>Gordon,<br>What this has to do with the grounding ability? Nothing.<br>In fact, I would agree with 90 % of the sentence (besides can't be upgraded into AGI because we don't know yet). <br>Knowledge is not advanced by decree so it doesn't matter which authority says what. But as authority goes Ben 

Goerztzel is one the AI experts that I do admire myself. <br>He claims we will reach AGI in less than 5 years. <br><br>It doesn't matter how this going to be achieved he seems more on the side of people like Jason, Ben and I claiming we are close to achieving AGI, while others think it is not possible for machines to be conscious, ever. So I'm glad you brought him to the mix (even if indirectly). <br><br>Giovanni <br><br><br><br><br><br><br><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023 at 12:56 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Some of you might know or remember Ben Goerztzel. He is probably on ExI. Many years ago, I subscribed to his AGI mailing list and still follow him on facebook and twitter. I'm hardly in the same league with Ben on the subject of AGI, but I notice that he has some of the same reservations about LLMs that I have.<br><br>He notes the same grounding problem that I have been going on about here for weeks now:<br><br>"LLMs ain't AGI and can't be upgraded into AGI, though they can be components of AGI systems with real cognitive architectures and reasoning/grounding ability."<br><br>He disagrees that GPT-4 shows the "sparks of AGI" in any meaningful way.<br><br>"Looking at how GPT4 works, you'd be crazy to think it could be taught or improved or extended to be a true human level AGI."<br><br>He did a twitter poll and was surprised at how many people disagreed with him:<br><br>"1 ) Well holy fukkazoly, I have to say I'm surprised  by these results.   Yah it's unscientific but ... perplexed that half my self-described AI expert followers think GPT-n systems w/o big additions could yield HLAGI.   OMG.  Nooo wayyy.  Theory of HLAGI urgently needed."<br><br><a href="https://twitter.com/bengoertzel/status/1642802029071601665?s=20" target="_blank">https://twitter.com/bengoertzel/status/1642802029071601665?s=20</a><br><br>-gts<br></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>