<br><br><div><span class="gmail_quote">On 12/22/05, <b class="gmail_sendername">gts</b> <<a href="mailto:gts_2000@yahoo.com">gts_2000@yahoo.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
On Thu, 22 Dec 2005 00:42:30 -0500, Samantha Atkins <<a href="mailto:sjatkins@mac.com">sjatkins@mac.com</a>><br>wrote:<br><br>> No human is likely to understand the code after one much less several<br>> optimization passes.
<br><br>Yes, but how about an open-source module or class, one which is called as<br>the last step before any SAI acts or decides, and which requires any<br>decision to be consistent with a rule something like "minimize human
<br>suffering"?<br><br>The code for that class might be understood by humans of realistic<br>intelligence, and be public domain.<br><br>The class would function something like courts. Courts exist in large part<br>to protect our rights as citizens. They protect the individual from mob
<br>rule just as a court class in a program might protect individuals from<br>inhumane decisions by SAI's.<br><br>The source code of this court-class could even be added to the<br>constitution as an amendment in some possible future.
<br><br>Just thinking out loud here.<br></blockquote></div><br>
My view is that SAI will derive from simulating existing neural
structures. That is, it will essentially be an uploaded person. In
which case we have a good handle on what it may be like. Just don't
used condemned criminals as guinea pigs...<br>
<br>
Dirk<br>