<div><span class="gmail_quote">On 10/5/06, <b class="gmail_sendername">Eliezer S. Yudkowsky</b> <<a href="mailto:sentience@pobox.com">sentience@pobox.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I don't understand your "what if".  What if what?  What if the above is<br>the actual outcome?  (Answer: it's a complex scenario with no specific<br>support given so it's very improbable a priori.)  What about the above
<br>as an optimal solution from a humane standpoint?  (Answer: it seems<br>easier to conceive of third alternatives which are better.)<br></blockquote></div><br>in response to:<br>> I asked a friend recently what he thought about the prospect of
<br>> superhuman beings annihilating humans to make themselves more<br>> processing substrate...<br>><br>> His response: "It's about time."<br>><br>> When asked what he meant, he said simply, "We're not so great, and
<br>> we've been dominating the planet long enough.  Let something better<br>> have its turn."<br><br>true the scenario is unlikely - as much as superhuman beings would ever annihilate humans.  There is a much greater likelihood that we will annihilate ourselves first.
<br>