<html><head></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><br><div><div>On Nov 14, 2010, at 9:52 AM, Michael Anissimov wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite">On Sun, Nov 14, 2010 at 9:03 AM, Stefano Vaj <span dir="ltr"><<a href="mailto:stefano.vaj@gmail.com">stefano.vaj@gmail.com</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im">
<br>
</div>I still believe that seeing the Singularity as an "event" taking place<br>
at a given time betrays a basic misunderstanding of the metaphor, ony<br>
too open to the sarcasm of people such as Carrico.<br>
<br>
If we go for the original meaning of "the point in the future where<br>
the predictive ability of our current forecast models and<br>
extrapolations obviously collapse", it would seem obvious that the<br>
singularity is more of the nature of an horizon, moving forward with<br>
the perspective of the observer, than of a punctual event.<br></blockquote><div><br></div><div>We have some reason to believe that a roughly human-level AI could rapidly improve its own capabilities, fast enough to get far beyond the human level in a relatively short amount of time.  The reason why is that a "human-level" AI would not really be "human-level" at all -- it would have all sorts of inherently exciting abilities, simply by virtue of its substrate and necessities of construction:</div></div></blockquote><div><br></div>While it "could" do this it is not at all certain that it would.  Humans can improve themselves even today in a variety of ways but very few take the trouble.  An AGI that is not autonomous would do what it was told to do by its owners who may or may not have improving it drastically as a high priority.   </div><div><br><blockquote type="cite"><div class="gmail_quote">
<div><br></div><div>1.  ability to copy itself</div><div>2.  stay awake 24/7</div></div></blockquote><div><br></div>Possibly, depending on its long term memory and integration model.  If it came from human brain emulation this is less certain.</div><div><br><blockquote type="cite"><div class="gmail_quote"><div>3.  spin off separate threads of attention in the same mind</div></div></blockquote><div><br></div>This very much depends on the brain architecture.  If too close a copy of human brains this may not be the case.</div><div><br><blockquote type="cite"><div class="gmail_quote"><div>4.  overclock helpful modules on-the-fly</div></div></blockquote><div><br></div>Not sure what you mean by this but this is very much a question of specific architecture rather than general AGI.</div><div><br><blockquote type="cite"><div class="gmail_quote"><div>5.  absorb computing power (humans can't do this)</div></div></blockquote><div><br></div>What does this mean?  Integrate other systems?  How? To what level?  Humans do some degree of this all the time.</div><div><br><blockquote type="cite"><div class="gmail_quote">
<div>6.  constructed from scratch with self-improvement in mind</div></div></blockquote><div><br></div>It could be so constructed but may or may not in fact be so constructed.</div><div><br><blockquote type="cite"><div class="gmail_quote"><div>7.  the possibility of direct integration with new sensory modalities, like a codic modality</div></div></blockquote><div><br></div>I am not sure exactly what is meant by this.  That it is very very good at understanding code amounts to a 'modality'?</div><div><br><blockquote type="cite"><div class="gmail_quote"><div>8.  the ability to accelerate its own thinking speed depending on the speed of available computers</div>
<div><br></div></div></blockquote><div><br></div><div>This assumes an ability to integrate random other computers that I do not think is at all a given.</div><div><br></div><br><blockquote type="cite"><div class="gmail_quote"><div>When you have a human-equivalent mind that can copy itself, it would be in its best interest to rent computing power to perform tasks.  If it can make $1 of "income" with less than $1 of computing power, you have the ingredients for a hard takeoff.</div></div></blockquote><div><br></div>This is simple economics.  Most humans don't take advantage of the many such positive sum activities they can perform today without such self-copying abilities.  So why is it certain that an AGI would?</div><div><br><blockquote type="cite"><div class="gmail_quote">
<div><br></div><div>There is an interesting debate to be had here, about the details of the plausibility of the arguments, but most transhumanists just seem to dismiss the conversation out of hand, or don't know that there's a conversation to have.  </div>
<div><br></div></div></blockquote><div><br></div><div>Statements about "most transhumanists" are fraught with many problems. </div><br><blockquote type="cite"><div class="gmail_quote"><div>Many valuable points are made here, why do people always ignore them?</div></div></blockquote><div><br></div>'We' don't.</div><div><br><blockquote type="cite"><div class="gmail_quote"><div><br></div><div><a href="http://singinst.org/upload/LOGI//seedAI.html">http://singinst.org/upload/LOGI//seedAI.html</a></div>
<div><br></div><div>Prediction: most comments in response to this post will again ignore the specific points in favor of a rapid takeoff and simply dismiss the idea based on low intuitive plausibility. </div><div> </div></div></blockquote><div><br></div><div>Well, that helps a lot.  It is a form of calling those who disagree lazy or stupid before they even voice their disagreement.</div><div><br></div><br><blockquote type="cite"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0.8ex; border-left-width: 1px; border-left-color: rgb(204, 204, 204); border-left-style: solid; padding-left: 1ex; position: static; z-index: auto; ">
The Singularity as an incumbent rapture - or<br>
doom-to-be-avoided-by-listening-to-prophets, as it seems cooler to<br>
many to present it these days - can on the other hand easily<br>
deconstructed as a secularisation of millennarist myths which have<br>
plagued western culture since the advent of monotheism.<br></blockquote><div><br></div><div>We have real, evidence-based arguments for an abrupt takeoff.  One is that the human speed and quality of thinking is not necessarily any sort of optimal thing, thus we shouldn't be shocked if another intelligent species can easily surpass us as we surpassed others.  We deserve a real debate, not accusations of monotheism.</div>
</div></blockquote><div><br></div><div><br></div>No, you don't have air tight evidence.  You have a reasonable argument for it. </div><div><br></div><div>- samantha</div></body></html>