<div dir="ltr"><div dir="ltr">On Thu, Mar 25, 2021 at 10:38 AM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div lang="EN-US" style="overflow-wrap: break-word;"><div class="gmail-m_1026892924291577306WordSection1"><div style="border-right:none;border-bottom:none;border-left:none;border-top:1pt solid rgb(225,225,225);padding:3pt 0in 0in"><p class="MsoNormal">Adrian, never mind the images.  If we accidentally spawn an evil AI, images are the least of our worries.<br></p></div></div></div></blockquote><div><br></div><div>On that front, I'm far more concerned about AI-enabled evil humans than an evil AI.  There is ample evidence to show that humans can supply pure, refined evil.</div><div><br></div><div>Imagine a servant AI that can do any well-enough-defined task almost instantly, so long as it's only dealing with pure information that it has access to.  Now imagine an evil - genocidal, perhaps - human who gets very proficient about imagining and defining such tasks, including having the AI research and find what information it can access.  This possibility isi much closer than an AI that is evil in and of itself, no?</div></div></div>