In deference's to Max's request...<br><br><div class="gmail_quote">---------- Forwarded message ----------<br>From: <b class="gmail_sendername">Stefano Vaj</b> <<a href="mailto:stefano.vaj@gmail.com">stefano.vaj@gmail.com</a>><br>
Date: Sun, Jun 15, 2008 at 8:13 PM<br>Subject: Re: [ExI] MAX MORE in Second Life yesterday<br>To: ExI chat list <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>><br><br><br><div class="Ih2E3d">
On Fri, Jun 13, 2008 at 11:58 PM, Michael Anissimov<br>
<<a href="mailto:michaelanissimov@gmail.com">michaelanissimov@gmail.com</a>> wrote:<br>
> This may be your preference, but it may turn out to simply be<br>
> technologically easier to create a self-improving AI first.  Sort of like<br>
> how I might like to say that I'd prefer for fossil fuels to be replaced by<br>
> solar power, but replacing them with nuclear seems far simpler<br>
> technologically.<br>
<br>
</div>So, are you suggesting that we should drop human enhancement efforts<br>
altogether, and, as our successor, concentrate exclusively on the<br>
development of a self-improving AI?<br>
<font color="#888888"><br>
Stefano Vaj<br>
</font></div><br>