<div class="gmail_quote">On 18 December 2011 09:42, Anders Sandberg <span dir="ltr"><<a href="mailto:anders@aleph.se">anders@aleph.se</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I think that is a bit of misrepresentation. I can only speak for us at FHI, but we would be fine with faster AGI development if we thought safe AGI was very likely or we were confident that it would be developed before AGI went critical. An early singularity reduces existential risk from everything that could happen while waiting for it. It also benefits existing people if it is a positive one.<br clear="all">
</blockquote><div><br>Given that unless something very dramatic happens the entire humankind - defined as the set of all humans currently alive - is currently confronted with an obvious extinction risk, or rather certitude, in a matter of decades, out of aging if anything, it has always been unclear to me how FHI can reconcile what I think is fair to characterise as an utilitarian value system with a primary concern for the dominance or not of bio-based intelligences in the future.<br>
<br>But of course the same question could be asked to the Singularity Institute.<br><br></div></div>-- <br>Stefano Vaj<br>