<html><head><style type="text/css"><!-- DIV {margin:0px;} --></style></head><body><div style="font-family:'bookman old style', 'new york', times, serif;font-size:10pt"><div>I think y'all are confusing "dangerous" with "fun". Honestly, if controlling millions of robot fighting machines with my lightning-fast, heavily augmented uploaded mind isn't part of the program, then what's the point?</div><div style="font-family:bookman old style, new york, times, serif;font-size:10pt"><br><div style="font-family:bookman old style, new york, times, serif;font-size:10pt"><font size="2" face="Tahoma"><hr size="1"><b><span style="font-weight: bold;">From:</span></b> Dave Sill <sparge@gmail.com><br><b><span style="font-weight: bold;">To:</span></b> ExI chat list <extropy-chat@lists.extropy.org><br><b><span style="font-weight: bold;">Sent:</span></b> Mon, March 1, 2010 9:39:18 AM<br><b><span style="font-weight: bold;">Subject:</span></b> Re: [ExI] related
 replies<br></font><br>
On Sun, Feb 28, 2010 at 7:46 PM, Stathis Papaioannou <<a ymailto="mailto:stathisp@gmail.com" href="mailto:stathisp@gmail.com">stathisp@gmail.com</a>> wrote:<br>> On 1 March 2010 06:39, Keith Henson <<a ymailto="mailto:hkeithhenson@gmail.com" href="mailto:hkeithhenson@gmail.com">hkeithhenson@gmail.com</a>> wrote:<br>>><br>>> This way is *exceeding* dangerous unless we deeply understand the<br>>> biological mechanisms of human behavior, particularly behaviors such<br>>> as capture-bonding which are turned on by behavioral switches (due to<br>>> external situations).  A powerful human type AI in "war mode,"<br>>> irrational and controlling millions of robot fighting machines is not<br>>> something you want to happen.<br>><br>> I don't think a mind upload would be dangerous initially because it<br>> would not have either superintelligence or the ability to self-modify.<br>> However,
 researchers could then go on and add these qualities as a<br>> further project much more easily than they could to a biological<br>> brain, and that is when it might get dangerous.<br><br>It also shouldn't be direct control of anything potentially dangerous,<br>certainly not millions of robot fighting machines.<br><br>-Dave<br>_______________________________________________<br>extropy-chat mailing list<br><a ymailto="mailto:extropy-chat@lists.extropy.org" href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br><span><a target="_blank" href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a></span><br></div></div><div style="position:fixed"></div>


</div></body></html>