<div>I think it would be a good idea to begin with Greg Egan's first comment from the link below, which is not the text included in Damien's message:</div>
<div> </div>
<div>EGAN:</div>
<div>
<p>Though a handful of self-described Transhumanists are thinking rationally about real prospects for the future, the overwhelming majority might as well belong to a religious cargo cult based on the notion that self-modifying AI will have magical powers.<br>
<br>Worse, the word itself implies the replacement or overcoming of humanity, which is a PR disaster. While at some level it's good to insist that every quality of the human phenotype be subject to clear-eyed <i>scrutiny</i>, the word "Transhumanist" appears to suggest the foregone conclusion that everything about the present species is destined for the rubbish bin -- which neither accords with what most people who've considered the matter would wish for, nor does much to encourage anyone else to treat the movement seriously.<br>
<br>Russell, I share your concern that so many prominent Transhumanists are anti-egalitarian, but at this stage, quite frankly, to first order I consider a self-description of "Transhumanist" to be a useful filter to identify crackpots. While this might be unfair on a tiny proportion of people, I'm afraid anyone who doesn't want to sink with the whole drooling sub-Nietzschean mob really ought to think of a better name for their philosophy -- or perhaps even eschew labels altogether.</p>
<br><br></div>
<div class="gmail_quote">On Wed, Apr 23, 2008 at 10:06 AM, Damien Broderick <<a href="mailto:thespike@satx.rr.com">thespike@satx.rr.com</a>> wrote:<br>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">See Russell Blackford's blog entry on transhumanism,<br><br><a href="http://metamagician3000.blogspot.com/" target="_blank">http://metamagician3000.blogspot.com/</a><br>
<br>and especially the comments:<br><br><<a href="https://www.blogger.com/comment.g?blogID=24761391&postID=3749500042141962458" target="_blank">https://www.blogger.com/comment.g?blogID=24761391&postID=3749500042141962458</a>><br>
<br>where Greg Egan offers remarks such as:<br><br><The word "transhumanism" (or, even worse, "posthumanism") sounds<br>like a suicide note for the species, which effectively renders it a<br>political suicide note for any movement by that name. No doubt there<br>
are people prepared to spend 90% of their time and energy explaining<br>that they didn't *intend* any negative connotations, but this is not<br>one of those cases where other people will be to blame if<br>"transhumanists" are reviled as the enemies of humanity on purely<br>
linguistic grounds. It's no use people proclaiming "Please, read my<br>1,000-page manifesto, don't just look at one word!" The name is<br>stupid, and anyone who doesn't drop it deserves the consequences.<br>
<br>And I'm not sure quite how much solidarity I'm compelled to have with<br>someone, just because they've also noticed that we're not going to<br>see out the millennium with physical substrates identical to those<br>
we've had for the last 200,000 years. People who think their manifest<br>destiny is to turn Jupiter into computronium so they can play 10^20<br>characters simultaneously in their favourite RPG are infinitely more<br>odious and dangerous than the average person who thinks this whole<br>
subject is science-fictional gibberish and would really just like to<br>have 2.3 children that are members of his/her own species, so long as<br>they don't have cystic fibrosis and live a slightly better life than<br>
their parents. ><br><br>Damien Broderick<br><br>_______________________________________________<br>extropy-chat mailing list<br><a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br><a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div><br>