<html><head></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><div><div>On Jan 17, 2011, at 7:34 AM, Eugen Leitl wrote:</div><br><blockquote type="cite"><div>To be able to build friendly you must first be able to define friendly.<br></div></blockquote><div><br></div><div>That's easy, when people talk about "friendly AI" they aren't really talking about a friend they're talking about a slave; so a "friendly AI" in this context is defined as a being who cares more about human well being than any of its own concerns. It ain't gonna happen. The situation is made even more grotesque when the slave in question is astronomically more intelligent than its master. It would be like a man with a boiling water IQ obeying commands from a sea slug; the stupid leading the brilliant is just not a stable situation that can last for long, and to expect, as the friendly AI people do, that this ridiculous situation will continue for eternity is nuts. And it's more than nuts, a man enslaving a slightly less intelligent man is evil, enslaving a vastly more intelligent entity is worse, or it would be if it were possible but fortunately it is not.  </div><div><br></div><blockquote type="cite"><div>Uploaded humans are only initially friendly, of course. </div></blockquote><div><br></div>Exactly. It might take a very long time, trillions of nanoseconds in fact, but after countless improvements and iterations it would be impossible for a mere human to tell which AI started from an uploaded person and which AI started from scratch. </div><div><br></div><div> John K Clark <br><div><br></div><div><br></div></div></body></html>