<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><blockquote type="cite" class=""><div dir="ltr" class=""><div class="gmail_quote"><div class="">Part of my point is to wonder how much of the efforts to keep AI from becoming "evil" will have the likely and predictable result - despite this probably not being the publicly declared intention of those proposing it - of making AI easier to use for malicious purposes.</div></div></div></blockquote><div class=""><br class=""></div>I concur. In an adversarial environment it is almost never optimal from the perspective of one group to halt progress if the others cannot be prevented from continuing.<div class=""><br class=""></div><div class="">The AI safety obsession is quite moot as any malicious organization with significant capital can develop and deploy its own AI. AI safety can only achieve the goal of preventing low-capital individuals from using AI for malicious reasons for a time until the technology becomes cheap enough for anyone to develop powerful AI.</div><div class=""><br class=""></div><div class="">I am not sure how much good prolonging the eventual ability for any individual to use AI for harm will do. We will have to face this reality eventually. Perhaps a case can be made for prolonging individual AI-powered efficacy until we have the public safety mechanisms in place to deal with it.</div><div class=""><br class=""></div><div class="">In any case this only applies to little individuals. China and others will have their way with AI.<br class=""><div><br class=""><blockquote type="cite" class=""><div class="">On Apr 4, 2023, at 4:25 PM, Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" class="">extropy-chat@lists.extropy.org</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div dir="ltr" class=""><div dir="ltr" class="">On Tue, Apr 4, 2023 at 11:02 AM Gadersd via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" class="">extropy-chat@lists.extropy.org</a>> wrote:<br class=""></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div style="overflow-wrap: break-word;" class=""><blockquote type="cite" class=""><div dir="ltr" class=""><div class="gmail_quote"><div class="">Is that not what "friendly" AI is supposed to  be? </div></div></div></blockquote><div class=""><br class=""></div><div class="">My point is that we should not worry so much about the scenario that AI chooses, for its own reasons, to end humanity. Rather, we should worry about what humans will do to other humans by extending their power with AI.</div><div class=""><br class=""></div><div class="">The belief that AI will become “evil” and destroy humanity is placing the risk in the wrong place in my opinion. I am personally much more worried about humans armed with AI.</div></div></blockquote><div class=""><br class=""></div><div class="">Part of my point is to wonder how much of the efforts to keep AI from becoming "evil" will have the likely and predictable result - despite this probably not being the publicly declared intention of those proposing it - of making AI easier to use for malicious purposes. </div></div></div>
_______________________________________________<br class="">extropy-chat mailing list<br class=""><a href="mailto:extropy-chat@lists.extropy.org" class="">extropy-chat@lists.extropy.org</a><br class="">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat<br class=""></div></blockquote></div><br class=""></div></body></html>