<div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:arial,sans-serif">On Sun, Mar 13, 2016 at 2:26 PM, Anders Sandberg </span><span dir="ltr" style="font-family:arial,sans-serif"><<a href="mailto:anders@aleph.se" target="_blank">anders@aleph.se</a>></span><span style="font-family:arial,sans-serif"> wrote:</span><br></div><div class="gmail_extra"><div class="gmail_quote"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span style="font-size:12.8px"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​> ​</div>In principle a learning system might even be able to learn what it cannot do, avoiding wasting time </span></blockquote><div><br></div><div><font size="4"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​But Turing tells us in general that can not be done. Maybe looking for a example to prove that the </div>Goldbach conjecture<div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​ is wrong is a waste of time and maybe it's not, ​and maybe looking for a proof that </div>Goldbach<div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​ is right is a waste of time and maybe it's not; and maybe Goldbach is true but not provable so both things are a waste of time. T</div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">hat is why a AI, or any form of intelligence, needs both the ability to get bored and the ability to disobey an order.​</div> </font></div><div><font size="4"><br></font></div><div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">​ John K Clark ​</font></div><br></div><div><br></div></div></div>