On Mon, Jan 17, 2011 at 4:34 AM, Eugen Leitl <span dir="ltr"><<a href="mailto:eugen@leitl.org">eugen@leitl.org</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im">On Mon, Jan 17, 2011 at 12:43:35PM +0100, Stefano Vaj wrote:<br>
<br>
> I am still persuaded that the crux of the matter remains a less superficial<br>
> consideration of concept such as "intelligence" or "friendliness".  I<br>
<br>
</div>To be able to build friendly you must first be able to define friendly.<br>
Notice that it's a relative metric, both in regards to the entitity<br>
and the state at time t.<br>
<br>
What is friendly today is not friendly tomorrow. What is friendly to me,<br>
a god, is not friendly to you, a mere human.<br></blockquote><div><br></div><div>This is the basis of Eugen's opposition to Friendly AI -- he sees it as a dictatorship that any one being should have so much responsibility.</div>
<div><br></div><div>Our position, on the other hand, is that one being will likely end up with a lot of responsibility whether or not we want it, and to maximize the probability of a favorable outcome, we should aim for a nice agent. </div>
<div><br></div><div>The nice thing about our solution is that it works under both circumstances -- whether the first superintelligence becomes unrivaled or not.  Eugen's strategy, however, fails if superintelligence does indeed become unrivaled, because considering the possibility in the first place was so reprehensible to him that he could never bring himself to plan for the eventuality.  </div>
</div><br>-- <br>Michael Anissimov<br><span style="font-family:arial, sans-serif;font-size:13px;border-collapse:collapse"><div>Singularity Institute<br></div><div><a href="http://singinst.org/blog" target="_blank">singinst.org/blog</a></div>
</span><br>