<div dir="ltr"><div dir="ltr">On Tue, Apr 4, 2023 at 11:02 AM Gadersd via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div style="overflow-wrap: break-word;"><blockquote type="cite"><div dir="ltr"><div class="gmail_quote"><div>Is that not what "friendly" AI is supposed to  be? </div></div></div></blockquote><div><br></div><div>My point is that we should not worry so much about the scenario that AI chooses, for its own reasons, to end humanity. Rather, we should worry about what humans will do to other humans by extending their power with AI.</div><div><br></div><div>The belief that AI will become “evil” and destroy humanity is placing the risk in the wrong place in my opinion. I am personally much more worried about humans armed with AI.</div></div></blockquote><div><br></div><div>Part of my point is to wonder how much of the efforts to keep AI from becoming "evil" will have the likely and predictable result - despite this probably not being the publicly declared intention of those proposing it - of making AI easier to use for malicious purposes. </div></div></div>