<br><br><div><span class="gmail_quote">On 2/14/06, <b class="gmail_sendername">Robert Bradbury</b> <<a href="mailto:robert.bradbury@gmail.com">robert.bradbury@gmail.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br><div><span class="q"><span class="gmail_quote">On 2/14/06, <b class="gmail_sendername">Dirk Bruere</b> <<a href="mailto:dirk.bruere@gmail.com" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">
dirk.bruere@gmail.com</a>> wrote:</span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div>The kind of 'petty' superintelligence that only requires a puny 1MW of
power utilised as efficiently as the Human brain would yield an
intelligence some 10,000x greater than Human. IMO just a factor of 10
could prove exceedingly dangerous, let alone 10,000<br><div>
<br>
And such an intelligence is going to be able to provide very significant incentives for it's 'owners' not to pull any plugs.</div></div></blockquote></span><div><br>Point granted.  I'm going to have to think about this some more.
</div></div></blockquote><div><br>
There is also one more point.<br>
Undoubtedly one of the uses to which such an AI would be put is
generating novel technology. Almost by definition such tech will be
beyond Human comprehension. Even if it's just s/w, finding the
Easteregg in a trillion lines of code would require another AI of
comparable or greater ability. Then you have to start worrying about
conspiracies and/or viral takeovers...<br>
<br>
Dirk<br>
</div></div><br>