<br><br><div><span class="gmail_quote">On 9/22/05, <b class="gmail_sendername">Mike Lorrey</b> <<a href="mailto:mlorrey@yahoo.com">mlorrey@yahoo.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br><br>--- Marc Geddes <<a href="mailto:m_j_geddes@yahoo.com.au">m_j_geddes@yahoo.com.au</a>> wrote:<br>><br>> The secret I think is this:  A general recursively self-improving<br>> friendly AGI is an AI which understands the *true* nature of mind.
<br>> So to initiate Singularity, we simply design the AGI to understand<br>> the *true* nature of mind and the rest (friendliness etc) follows<br>> automatically as secondary consequences.<br><br>On the contrary, IMHO such a desired AI should instead understand that
<br>it is a flawed, imperfect being, a unique, freak, and yet happy<br>accident that cannot, no matter how intelligent it is, consider itself<br>the be-all, end-all. As it is the creation of flawed beings, so too is<br>it flawed and must focus on its own improvement with acceptance that
<br>perfection is likely unattainable, and thus perfect understanding of<br>the true nature of mind is similarly unattainable.<br></blockquote></div><br>
IMO the first true AI is likely to result from a kind of uploading
where someone's brain is sliced down to the molecular level, scanned,
input and run in simulation. Since petaflop computers are likely to be
around from about 2012 onwards I'd say that pre-2020 would be a likely
timeframe.<br>
<br>
Dirk<br>