<br><br><div><span class="gmail_quote">On 11/14/05, <b class="gmail_sendername">Jef Allbright</b> <<a href="mailto:jef@jefallbright.net">jef@jefallbright.net</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
On 11/14/05, Dirk Bruere <<a href="mailto:dirk.bruere@gmail.com">dirk.bruere@gmail.com</a>> wrote:<br>><br>><br>> On 11/14/05, Samantha Atkins <<a href="mailto:sjatkins@mac.com">sjatkins@mac.com</a>> wrote:
<br>> > With material plenty do you think this is likely?  But wait, I thoroughly<br>> believe in the right to obtain and bear arms.  So we may disagree or<br>><br>>  Material plenty simply means that the fighting will be over power, religion
<br>> and ideology.<br>><br>> > which kinds of things are a problem. A nano-factory cannot produce<br>> anything it doesn't have a blueprint for.   That is one level of control.<br>><br>>  How much of a blueprint does a gene machine require to synthesise a gene?
<br>><br>> > Nanofactories could come with certain built-in restrictions giving another<br>> level of control.   The problems could also be addressed by something like<br>> the broadcast model proposed by Ralph Merkle
<br>> (<a href="http://www.zyvex.com/nanotech/selfRepJBIS.html">http://www.zyvex.com/nanotech/selfRepJBIS.html</a> ).<br>> ><br>> ><br>> > Generally speaking I am more interested in empowering people and in
<br>> fighting abuses they actually do commit  than in keeping them harmless by<br>> decreasing their abilities and access.<br>> ><br>> ><br>> I think that such factories will be common, and that restrictions on their
<br>> use will be just as effective as DRM is in music today.<br><br>Dirk expressed the kinds of dangers I had in mind, but the subsequent<br>discussion seems to have been about control of threats (and its<br>ultimate ineffectiveness) rather than the accelerating growth of
<br>wisdom I had in mind.<br><br>I see technological risk accelerating at a rate faster than the<br>development of individual human intelligence (which gives us much of<br>our built-in sense of morality), and faster than cultural intelligence
<br>(from which we get moral guidance based on societal beliefs) but<br>maybe--just maybe--not faster than technologically based amplification<br>of human values exploiting accelerating instrumental knowledge to<br>implement effective decision-making which, as I've explained elsewhere
<br>in more detail, is a more encompassing concept of morality.</blockquote><div><br>
 </div></div>I too think it will be a close run race between
PostHuman society and extinction (or at best a massive dieback and new
dark age).<br>
<br>
Dirk<br>