<div dir="ltr">Yeah but the first superhuman-level AGI will probably ask the second superhuman-level AGI to prom and get rejected</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Jan 7, 2022 at 8:50 PM Rafal Smigrodzki via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">AGI must be able to match the average human in all intellectual endeavors to be worth being called a human-level AGI. Various aspects of human cognition have been solved by narrow AIs in the past 25 years and year by year the number of tasks where humans still beat AI is getting smaller. In many of these narrow tasks the AI doesn't just match human ability but rather it beats humans by completely inhuman margins. The first AI that checks off the last box on the list of human capabilities to beat will be the AGI, the holy grail - but most of the capabilities it inherited from earlier iterations will be strongly superhuman. So the first AGI will actually be the first superhuman AGI, not human-level AGI. To bring it down to human level you would have to handicap it harshly, and I can't think of a reasonable use-case for such a digital cripple.<div><br></div><div>Therefore, human-level AGI will never happen. QED.</div><div><br></div><div>Unless it is made as some sort of a sick joke.<br clear="all"><div><br></div>-- <br><div dir="ltr"><div dir="ltr"><div>Rafal Smigrodzki, MD-PhD<br>Schuyler Biotech PLLC</div></div></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>