<html><head></head><body><div><span data-mailaddress="protokol2020@gmail.com" data-contactname="Tomaz Kristan" class="clickable"><span title="protokol2020@gmail.com">Tomaz Kristan</span><span class="detail"> <protokol2020@gmail.com></span></span> , 8/9/2014 12:53 AM:<br><blockquote class="mori" style="margin:0 0 0 .8ex;border-left:2px blue solid;padding-left:1ex;"><div><div><div><div>Anders!<br><br></div>The least I want is some kind of arms race around those algorithms. So I don't talk a lot about details. But it is very on-topic here to inform about the possibility of quite sudden breakthrough here or there.</div></div></div></blockquote></div><div><br></div><div>Hmm. I see your point. At the same time there is a kind of paradox in trying to do something sensible with a potential information hazard: nobody really pays attention unless you demonstrate something impressive, and then everybody takes off to do it. It is hard to argue that X is a potential risk or opportunity unless somebody has demonstrated it - which is why so much AI and synthetic biology safety discussion is more stupid than it should be. </div><div><br></div><br><br>Anders Sandberg, Future of Humanity Institute Philosophy Faculty of Oxford University</body></html>