<div dir="ltr"><br><div>Just FYI, when we first created <a href="https://canonizer.com/topic/16-Friendly-AI-Importance/1-Agreement">this topic</a>, over 10 years ago to build and track as much consensus as possible on both sides of this debate, there was about the same amount of consensus on each side.</div><div>As time goes on, the <a href="https://canonizer.com/topic/16-Friendly-AI-Importance/3-Such-Concern-Is-Mistaken">Such Concern Is Mistaken</a> camp continues to extend it's lead, and now has more than twice the support as the <a href="https://canonizer.com/topic/16-Friendly-AI-Importance/9-FriendlyAIisSensible">people that are concerned about this</a>.  It'd be great if a bunch more of you would weight in on this, then we could see if this trends continues, or reverses.</div><div><br></div><div><br></div><h3 style="box-sizing:inherit;margin-top:0px;margin-bottom:0.5rem;font-family:-apple-system,BlinkMacSystemFont,"Segoe UI",Roboto,"Helvetica Neue",Arial,sans-serif;font-weight:500;line-height:1.5;color:rgb(85,85,85);font-size:20px;border-bottom:1px dotted rgb(153,153,153);padding-bottom:10px"><br></h3><h3 style="box-sizing:inherit;margin-top:0px;margin-bottom:0.5rem;font-family:-apple-system,BlinkMacSystemFont,"Segoe UI",Roboto,"Helvetica Neue",Arial,sans-serif;font-weight:500;line-height:1.5;color:rgb(85,85,85);font-size:20px;border-bottom:1px dotted rgb(153,153,153);padding-bottom:10px"> </h3></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 2, 2022 at 11:21 AM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Sat, 2 Apr 2022 at 16:31, Adrian Tymes via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
><br>
> His main argument seems to be that AI will be unimaginably smarter than humans (achieving superintelligence near-instantaneously through the Technological Singularity process) therefore AI can do literally anything it wants with effectively infinite resources (including time since it will act so much faster than humanity), and unfriendly AI will have the same advantage over friendly AI since it is easier to destroy than to create.<br>
><br>
<snip><br>
> _______________________________________________<br>
<br>
<br>
Assuming a super-intelligent powerful AGI, perhaps it is not likely to<br>
be unfriendly to humans so much as to hardly notice them. Humanity<br>
would be destroyed almost accidentally when the AGI used something<br>
essential to human life.<br>
An opposite (but equally disastrous) option is when the AGI is<br>
programmed to love humans and decides to completely protect and care<br>
for humanity. So no human evil is permitted, no killing or violence,<br>
even verbal violence. Just quiet and complete care.<br>
There are so many ways an AGI could end humanity.<br>
<br>
<br>
BillK<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>