On 10/10/05, <b class="gmail_sendername">J. Andrew Rogers</b> <<a href="mailto:andrew@ceruleansystems.com">andrew@ceruleansystems.com</a>> wrote:<div><span class="gmail_quote"></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
The very notion of the Singularity as most transhumanists conceive it is, as<br>best as I can tell, premised on the same poor reasoning that Harvey is<br>pointing out.<br><br>The Singularity as most people conceive of it essentially requires a hard
<br>take-off(*) of some type in an environment that is not qualitatively<br>different than what we have now in many respects.  It is the old fallacy of<br>looking at a technology in isolation and forgetting that every other
<br>technology in society will co-evolve with it.  At what point does the<br>Singularity occur from the perspective of individuals if they are an<br>integral part of the system?  In many scenarios it would be as fluid a<br>
transition as the 20th century was.  Sure, to a 2005 human it would appear<br>abrupt, but at any point in the curve you will have something of human<br>derivation that has fluidly evolved with the technology and is integrated
<br>with it.  Hell, many of us probably cannot imagine a world without the<br>modern Internet but I would assume that most of us have lived with that<br>reality at some point.<br><br>I can easily envision a scenario that a 2005 transhuman would call "a
<br>Singularity" that a 2025 transhuman would call "technological progress".<br>But in 2025, you probably won't have a 2005 transhuman to ask.</blockquote><div><br>
Actually I'm inclined to agree with all this; I'm not a believer in the
"superintelligent AI pops out of someone's basement into a world that
otherwise looks mostly like today" scenario, and I was never a great
fan of Singularity definitions based on unpredictability (then we've
had zillions of them) or incomprehensibility (I don't believe anything
in this universe is fundamentally incomprehensible to a sufficiently
educated human mind).<br>
<br>
>From a navigation perspective, I think what matters is the event
horizon: the point at which we can no longer change the outcome, for
good or bad; the board has been played into either a winning or losing
position. That is the point which I estimate will come before 2100. (I
won't be surprised if it comes as early as 2050; I will be surprised if
it comes much before that.)<br>
</div><br>
- Russell<br>
</div>