<html><head></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><div><div>On Nov 19, 2010, at 1:52 PM, Dave Sill wrote:</div><br><blockquote type="cite"><div><blockquote type="cite">There would be absolutely no point in building an AI if you just lock it up<br></blockquote><blockquote type="cite">in a box with no way for the outside world to interact with it.<br></blockquote><br>Sure there would. It could solve problems and teach us.<br></div></blockquote><div><br></div>A teacher astronomically smarter than you would manipulate you like a puppet. </div><div><br></div><blockquote type="cite"></blockquote><blockquote type="cite"><blockquote type="cite">A much better analogy would be Einstein in charge of weapons development and</blockquote><blockquote type="cite">production, world monetary transfer, electric power generation and distribution, worldwide communication lines, air traffic control, nuclear power plants and pretty much the entire economy.</blockquote><br></blockquote><blockquote type="cite">If you hand it that kind of control, the game is over. You're its slave, whether you realize it or not. </blockquote><div><br></div><div>Exactly, and although not super- intelligent computers already run much of that sort of stuff; and if you refuse to let a super-intelagence make weapons or run you economy somebody else will and they will have better weapons and a stronger economy than you and take over.</div><br><div><blockquote type="cite"><div><blockquote type="cite">When you ask Einstein why he made one decision rather than another he tries to tell you but after</blockquote><blockquote type="cite">about 20 seconds of his explanation you become totally lost and confused.<br></blockquote><br>The AGI is a supergenius but unable to explain itself?<br></div></blockquote><div><br></div><div>Can you make your dog understand calculus? </div><div><br></div><div> John K Clark</div><div><br></div></div><br></body></html>