On Date: Mon, 19 Dec 2011 12:38:15 +0100, Eugen Leitl wrote:<br><br>>( Kevin George Haskell) :<br><br>> Does anyone know of any presently existing private organizations that are<br>
> dedicated to the idea of 'speeding' up the development of AGI and of<br>
> achieving the Singularity as soon as possible?<br>
<br>
<br>>>All the brain emulation projects clearly aim for this, whether they<br>
>>realize it, or not.<br><br>Agreed.<br>
<br>
>>Of course accelerating the Singularity just because you can is the<br>
>>most idiotic idea imaginable. All extinction events happen when<br>
>>the environment changes particularly rapidly.<br><br>Is it the most idiotic? It is true what you wrote about extinction level events, so how wise it to wait for the countless other possible extinction level-events, either caused by nature, war, or man-made accidents like the release of a global-killing virus, non of which will provide anything for man, and will end the chance of human/AGI intelligence from evolving and spreading throughout the universe? <br>

<br>
>>If you cease to be the prime mover and shaker you'll be a prime<br>
>>candidate for the fossil layer yourself. There are easier and more<br>
>>straightforward ways to commit suicide as a species.<br><br>Yes, but at some point, we are bound to go extinct, one way or the other...except...possibly, if we create AGI.  So, again, you 'do' realize that we are going to go extinct if we 'don't' create AGI, right? Do you propose stopping the development of AGI, and if so, since we will eventually go extinct as a species, wouldn't that actually be the way we would be committing suicide as a species?<br>
<br>Kevin George Haskell,<br>C.H.A.R.T.S<br>(Capitalism, Health, Age-Reversal, Transhumanism, and Singularity.)<br>