<div class="gmail_quote">On 16 June 2011 10:54, Anders Sandberg <span dir="ltr"><<a href="mailto:anders@aleph.se">anders@aleph.se</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im">For example, at present most of our conclusions suggest that a uploading-driven singularity is more survivable than an AI-driven singularity.</div></blockquote></div><div><br></div>Doesn't such conclusion imply an acritical definition of survival under which AIs would not qualify as "legitimate" offspring of their creators?<br clear="all">
<br><div>Having said that, I have been insisting for years upon the idea that those denouncing transhumanism and its risks are our best allies in the short term, if anything because they have been granting our ideas and themes a visibility which had it been for our own strength they would have never enjoyed.</div>
<div><br></div><div>But an entirely different story is ending up *agreeing* with them on the merits - with the minor qualification that perhaps things can be steered for the best if we are cautious enough and that technology itself can be instrumentalised to prevent further paradigm shifts or evolutionary changes - when the real risk is to end up in a semi-stagnant Brave-New-Worldish, utilitarian scenario which I certainly would not qualify as "survival" of anything which would deserve to be protected.</div>
<div><br>-- <br>Stefano Vaj<br>
</div>