<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></div></div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Wed, Nov 5, 2025 at 6:22 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 05/11/2025 03:39, spike wrote:<br>
<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
 ><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">></span> it appears to me that what we are calling AI might be a kind of false<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span>alarm</blockquote>
<br>
<font size="4" face="georgia, serif"><i><span class="gmail_default" style="">> </span>I for one think it is, at least in the sense that what we call AI now is <br>
not going to develop into general intelligence, much less <br>
superintelligence. It's far too narrow in the kind of information <br>
processing it does, compared to the only generally-intelligent thing we <br>
know, our own brains.</i></font><br></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Today<span class="gmail_default" style=""> AIs are not better than the best humans at everything, but they are better than the best humans at some things, and those things were once thought of as excellent examples of intelligence. </span> A<span class="gmail_default" style="">nd</span> today<span class="gmail_default" style=""> AIs are better than the average human at nearly everything except for manual dexterity. For some reason people treat "AGI" and "Superintelligence" as synonyms, and that causes nothing but confusion. </span></b></font></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<span class="gmail_default" style=""><font face="arial, helvetica, sans-serif"></font><font size="4" style="" face="georgia, serif"><i style="">> </i></font></span><font size="4" face="georgia, serif"><i>If intelligence is substrate-specific, and biology is the only thing <br>
that can sustain it, then we're really in trouble, and I think all bets<span class="gmail_default" style=""> </span>are off.<br></i></font></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>I think the likelihood of that being true is about equal to the likelihood that the holy rollers and snake handlers<span class="gmail_default" style=""> </span>will turn out to be right.<span class="gmail_default" style=""> </span> And I'm not holding my breath.<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span></b></font></div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i>
<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>In fact, if that is true, then all of science is in trouble. We might as <br>
well start taking religion and other kinds of magical thinking seriously.</i></font><br></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Exactly.<span class="gmail_default" style=""> </span> </b></font></div><div><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="">John K Clark</span><br></b></font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
</blockquote></div></div>