On Mon, Jun 16, 2008 at 10:49 PM, Michael Anissimov <<a href="mailto:michaelanissimov@gmail.com">michaelanissimov@gmail.com</a>> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
On Sun, Jun 15, 2008 at 11:13 AM, Stefano Vaj <<a href="mailto:stefano.vaj@gmail.com" target="_blank">stefano.vaj@gmail.com</a>> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">

<div>
<br>
</div>So, are you suggesting that we should drop human enhancement efforts<br>
altogether, and, as our successor, concentrate exclusively on the<br>
development of a self-improving AI?<font color="#888888"><br></font></blockquote></div><br clear="all">I see self-improving AI as potentially the easiest path to make radical (and safe) human enhancement available to everyone.  You've been a transhumanist for a while -- is this idea new?<br>

<br></blockquote></div><br>I was referring to entirely non-human - whatever one may mean with that - AIs, as opposed to biological or cyborg-like enhancement or augmentation of the human species.<br><br>Personally, I am not overly concerned with the issue, but I appreciate that for some of us the distinction may be of some importance.<br>
<br>Stefano Vaj<br>