Heya Spike,<br><br><div class="gmail_quote">On Sun, Nov 14, 2010 at 10:10 PM, spike <span dir="ltr"><<a href="mailto:spike66@att.net">spike66@att.net</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<br>
I am not advocating a Bill Joy approach of eschewing AI research, just the<br>
opposite.  A no-singularity future is 100% lethal to every one of us, every<br>
one of our children and their children forever.  A singularity gives us some<br>
hope, but also much danger.  The outcome is far less predictable than<br>
nuclear fission.<br></blockquote></div><br clear="all">Would you say the same thing if the Intelligence Explosion were initiated by the most trustworthy and altruistic human being in the world, if one could be found?<div>
<br></div><div>In general, I agree with you except the last sentence.<br><div><br>-- <br><a href="mailto:michael.anissimov@singinst.org" target="_blank">michael.anissimov@singinst.org</a><br><span style="font-family:arial, sans-serif;font-size:13px;border-collapse:collapse"><div>
Singularity Institute<br></div><div>Media Director</div></span><br>
</div></div>