On 10/10/05, <b class="gmail_sendername">Eugen Leitl</b> <<a href="mailto:eugen@leitl.org">eugen@leitl.org</a>> wrote:<div><span class="gmail_quote"></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
On Mon, Oct 10, 2005 at 06:14:26AM +0100, Russell Wallace wrote:<br><br>> Actually I'm inclined to agree with all this; I'm not a believer in the<br>> "superintelligent AI pops out of someone's basement into a world that
<br>> otherwise looks mostly like today" scenario, and I was never a great fan of<br><br>If it means a world full of unaugmented people, then it is a world "mostly<br>like today". Because nanomedicine is much harder than molecular electronics
<br>and spintronics, AI will come considerably before augmentation.</blockquote><div><br>
But molecular electronics and spintronics aren't close to enough for AI
by themselves. Also, when we have AI it should be able to help with
nanomedicine.<br>
</div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">> Singularity definitions based on unpredictability (then we've had zillions<br>
> of them) or incomprehensibility (I don't believe anything in this universe<br>> is fundamentally incomprehensible to a sufficiently educated human mind).<br><br>Do you think you could explain your daily work to a field mouse?
</blockquote><div><br>
Nope, which is why I didn't say a sufficiently educated field mouse!<br>
<br>
(I'm familiar with the analogy of transhuman:human as human:lower
animal, but that's another thing I don't believe in, though I did
happily use it for a fictional villain.)<br>
</div><br>
</div>- Russell<br>