<br><br><div><span class="gmail_quote">On 01/06/07, <b class="gmail_sendername">Eugen Leitl</b> <<a href="mailto:eugen@leitl.org">eugen@leitl.org</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
On Fri, Jun 01, 2007 at 09:23:09PM +1000, Stathis Papaioannou wrote:<br><br>>    With all the hardware that we have networked and controlling much of<br>>    the technology of the modern world, has any of it spontaneously
<br>>    decided to take over for its own purposes? Do you know of any examples<br><br>Of course not. It is arbitrarily improbable to appear by chance.<br>However, human-level AI is very high on a number of folks' priority
<br>list. It definitely won't happen by chance. It will happen by design.</blockquote><div><br>We don't have human level AI, but we have lots of dumb AI. In nature, dumb organisms are no less inclined to try to take over than smarter organisms (and no less capable of succeeding, as a general rule, but leave that point for the sake of argument). Given that dumb AI doesn't try to take over, why should smart AI be more inclined to do so? And why should that segment of smart AI which might try to do so, whether spontaneously or by malicious design, be more successful than all the other AI, which maintains its ancestral motivation to work and improve itself for humans just as humans maintain their ancestral motivation to survive and multiply?
<br></div><br></div><br><br clear="all"><br>-- <br>Stathis Papaioannou