<div dir="ltr"><br><div>Yes, exactly.  limited, irrational and stupid human behavior is the problem, not ever more intelligent AIs.</div></div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Fri, Mar 21, 2025 at 7:30 PM Keith Henson via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Fri, Mar 21, 2025 at 1:11 PM BillK via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
><br>
> This article from the Future of Life Institute suggests that the<br>
> intelligence explosion could be only a few years away.<br>
> BillK<br>
<br>
snip<br>
<br>
> . We should be acting on the assumption that<br>
> very powerful AI could emerge soon.<br>
<br>
Acting how?<br>
<br>
I have followed this subject for 20 years and have never seen a<br>
workable proposal.<br>
<br>
My unworkable proposal is to modify human nature because AIs are not<br>
the problem, humans are.<br>
<br>
Keith<br>
_________________________________________<br>
> extropy-chat mailing list<br>
> <a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
> <a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>