<div dir="ltr"><a href="http://arxiv.org/abs/1605.02817">http://arxiv.org/abs/1605.02817</a><br><div><br></div><div><p style="margin:0px;padding:0px;border:0px;outline:0px;font-size:16px;vertical-align:baseline;font-family:NeueHaas,sans-serif;line-height:19.696px;background:transparent">'So what warning signs indicate that work on a malevolent AI system might be possible? Pistono and Yampolskiy say there likely to be some clear signs.</p><p style="margin:0px;padding:0px;border:0px;outline:0px;font-size:16px;vertical-align:baseline;font-family:NeueHaas,sans-serif;line-height:19.696px;background:transparent">One of the most obvious would be the absence of oversight boards in the development of AI systems. “If a group decided to create a malevolent artificial intelligence, it follows that preventing a global oversight board committee from coming to existence would increase its probability of succeeding,” they say.'</p></div></div>