Oh, that was comic gold.  *Snork*  <br><br>Just one point, tho:<br><br><div><span class="gmail_quote">On 10/5/06, <b class="gmail_sendername">Eliezer S. Yudkowsky</b> <<a href="mailto:sentience@pobox.com">sentience@pobox.com
</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">No Sharia zombie could get one tenth of the way to independently<br>discovering how to build and shape an AGI, and still remain a Sharia zombie.
</blockquote><div><br>The key word there being _independent_<br><br>Otherwise, I wouldn't share quite so much... uh... "optimism".<br><br>The emergence fairy might not do much with raw data, but I can't prove that {AGI can't be built from lots of separate (incomplete) tools/narrow AI bits / other stuff}, and that an idiot with only dodgy rationality might try to do just that.  Possibly not a problem for now, but maybe a problem in a decade or several.
<br><br>That's the idiot-at-Google.Inc scenario that I worry about.<br><br>--Olie<br><br></div></div>