<div dir="ltr">Sounds right to me.<div><br></div><div>LLMs are a language cortex. The same way you understand your mother tongue, preconsciously, that's how they understand everything. </div><div><br></div><div>The human neural architecture involves an agentic core of sensors and instincts and memory, sitting under a modelling layer that can take memories of sensory inputs and generate sensory inputs of hypothetical situations, and a language cortex that sits on top of all that. LLMs are, at best, the top layer of the stack and part of the second. They are probably doing some environmental modeling, building implicit and not particularly complete models based on regularities seen in their training data (language that was generated by beings modeling stuff and describing the process linguistically), but they aren't optimized for that, and are at best ok at it. [Though to be fair, sometimes the miracle is that the bear can ride a unicycle at all, nevermind how well.]</div><div><br></div><div>But a modelling cortex is not going to be meaningfully more complex than a linguistic cortex - probably well within the scales we can train LLMs at now. And hindbrain agentic stimulus response machines - we've been building those forever now.</div><div><br></div><div>Yes, LLMs are not AGIs. And yes, LLMs cannot become AGIs, by piecewise tinkering or evolution or achieving consciousness or any other woo. </div><div><br></div><div>But.</div><div><br></div><div>We are only perhaps one or two major breakthroughs in the use and applications of the tools that build LLMs from someone tying all of those layers together into something meaningfully more than the sum of it's parts.</div><div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023 at 4:27 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">"To be clear -- we have enough of a theory of AGI already that it SHOULD [be] clear nothing with the sort of architecture that GPT-n systems have could really achieve HLAGI.  But the abstract theory of AGI has not been fleshed out and articulated clearly enough in the HLAGI context. We need to articulate the intersection of abstract AGI theory with everyday human life and human-world practical tasks with sufficient clarity that only a tiny minority of AI experts will be confused enough to answer a question like this with YES ..." <br><br>-Ben Goertzel<br><br><a href="https://twitter.com/bengoertzel/status/1642802030933856258?s=20" target="_blank">https://twitter.com/bengoertzel/status/1642802030933856258?s=20</a><br><br>-gts<br><br><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023 at 3:43 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023, 2:20 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><b>"LLMs ain't AGI and can't be upgraded into AGI, though they can be components of AGI systems with real cognitive architectures and reasoning/grounding ability."<br></b>Gordon,<br>What this has to do with the grounding ability? Nothing.<br>In fact, I would agree with 90 % of the sentence (besides can't be upgraded into AGI because we don't know yet).</div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I would go further and say it is self-contradictory.  If it can be a component of an AGI system, then adding the rest of the AGI system to a LLM is a considerable upgrade - and so, as an upgrade, would upgrade that LLM to an AGI.</div><div dir="auto"></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"></div>
</blockquote></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>