On Sun, Nov 14, 2010 at 9:03 AM, Stefano Vaj <span dir="ltr"><<a href="mailto:stefano.vaj@gmail.com">stefano.vaj@gmail.com</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im">
<br>
</div>I still believe that seeing the Singularity as an "event" taking place<br>
at a given time betrays a basic misunderstanding of the metaphor, ony<br>
too open to the sarcasm of people such as Carrico.<br>
<br>
If we go for the original meaning of "the point in the future where<br>
the predictive ability of our current forecast models and<br>
extrapolations obviously collapse", it would seem obvious that the<br>
singularity is more of the nature of an horizon, moving forward with<br>
the perspective of the observer, than of a punctual event.<br></blockquote><div><br></div><div>We have some reason to believe that a roughly human-level AI could rapidly improve its own capabilities, fast enough to get far beyond the human level in a relatively short amount of time.  The reason why is that a "human-level" AI would not really be "human-level" at all -- it would have all sorts of inherently exciting abilities, simply by virtue of its substrate and necessities of construction:</div>
<div><br></div><div>1.  ability to copy itself</div><div>2.  stay awake 24/7</div><div>3.  spin off separate threads of attention in the same mind</div><div>4.  overclock helpful modules on-the-fly</div><div>5.  absorb computing power (humans can't do this)</div>
<div>6.  constructed from scratch with self-improvement in mind</div><div>7.  the possibility of direct integration with new sensory modalities, like a codic modality</div><div>8.  the ability to accelerate its own thinking speed depending on the speed of available computers</div>
<div><br></div><div>When you have a human-equivalent mind that can copy itself, it would be in its best interest to rent computing power to perform tasks.  If it can make $1 of "income" with less than $1 of computing power, you have the ingredients for a hard takeoff.</div>
<div><br></div><div>There is an interesting debate to be had here, about the details of the plausibility of the arguments, but most transhumanists just seem to dismiss the conversation out of hand, or don't know that there's a conversation to have.  </div>
<div><br></div><div>Many valuable points are made here, why do people always ignore them?</div><div><br></div><div><a href="http://singinst.org/upload/LOGI//seedAI.html">http://singinst.org/upload/LOGI//seedAI.html</a></div>
<div><br></div><div>Prediction: most comments in response to this post will again ignore the specific points in favor of a rapid takeoff and simply dismiss the idea based on low intuitive plausibility. </div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
The Singularity as an incumbent rapture - or<br>
doom-to-be-avoided-by-listening-to-prophets, as it seems cooler to<br>
many to present it these days - can on the other hand easily<br>
deconstructed as a secularisation of millennarist myths which have<br>
plagued western culture since the advent of monotheism.<br></blockquote><div><br></div><div>We have real, evidence-based arguments for an abrupt takeoff.  One is that the human speed and quality of thinking is not necessarily any sort of optimal thing, thus we shouldn't be shocked if another intelligent species can easily surpass us as we surpassed others.  We deserve a real debate, not accusations of monotheism.</div>
<div> </div></div>-- <br><a href="mailto:michael.anissimov@singinst.org" target="_blank">michael.anissimov@singinst.org</a><br><span style="font-family:arial, sans-serif;font-size:13px;border-collapse:collapse"><div>Singularity Institute<br>
</div><div>Media Director</div></span><br>