On Date: Sun, 18 Dec 2011 14:58:25 +0100, Stefano Vaj wrote:<br><br>On 18 December 2011 09:42, Anders Sandberg <<a href="mailto:anders@aleph.se">anders@aleph.se</a>> wrote:<br><br>(Anders Sandberg's comment)"<br>

<br>
> I think that is a bit of misrepresentation. I can only speak for us at<br>
> FHI, but we would be fine with faster AGI development if we thought safe<br>
> AGI was very likely or we were confident that it would be developed before<br>
> AGI went critical. An early singularity reduces existential risk from<br>
> everything that could happen while waiting for it. It also benefits<br>
> existing people if it is a positive one.<br>
><br><br>(Stefano Vaj's Reply)<br>
<br>
>>Given that unless something very dramatic happens the entire humankind -<br>
>>defined as the set of all humans currently alive - is currently confronted<br>
>>with an obvious extinction risk, or rather certitude, in a matter of<br>
>>decades, out of aging if anything, it has always been unclear to me how FHI<br>
>>can reconcile what I think is fair to characterise as an utilitarian value<br>
>>system with a primary concern for the dominance or not of bio-based<br>
>>intelligences in the future.<br>
<br>
>>But of course the same question could be asked to the Singularity Institute.<br><br>I share your thoughts on that, Stefano. Well said. <br><br>Kevin<br><br><br>