<div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)">adrian wrote:  <span style="font-size:19.2px;font-family:arial,sans-serif;color:rgb(34,34,34)">I suspect our strong-AI children will be essentially </span><span style="font-size:19.2px;font-family:arial,sans-serif;color:rgb(34,34,34)">human, not some strange affected robot overlords inherently </span><span style="font-size:19.2px;font-family:arial,sans-serif;color:rgb(34,34,34)">antagonistic to humanity.</span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="font-size:19.2px;font-family:arial,sans-serif;color:rgb(34,34,34)">-------</span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="font-size:19.2px;font-family:arial,sans-serif;color:rgb(34,34,34)"><br></span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="font-size:19.2px;font-family:arial,sans-serif;color:rgb(34,34,34)">Some say that we will put moral sense into the AIs.  And if we install our abilities but not our faults, then will the AIs see themselves as superior to us?</span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="font-size:19.2px;font-family:arial,sans-serif;color:rgb(34,34,34)"><br></span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="font-size:19.2px;font-family:arial,sans-serif;color:rgb(34,34,34)">bill w</span></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Sep 4, 2017 at 11:13 AM, Adrian Tymes <span dir="ltr"><<a href="mailto:atymes@gmail.com" target="_blank">atymes@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Mon, Sep 4, 2017 at 6:48 AM, spike <<a href="mailto:spike66@att.net">spike66@att.net</a>> wrote:<br>
> This line of reasoning leads me to the discouraging conclusion that even if<br>
> we manage to create inference-enabled software, we would need to train it by<br>
> having it read our books (how else?  What books?) and if so, it would become<br>
> as corrupt as we are.  The AI we can create would then be like us only more<br>
> so.<br>
<br>
</span>Books aren't the only source, but this line of reasoning is why I do<br>
not fear the rise of the AIs.  Whether or not mind uploading becomes<br>
possible someday, I suspect our strong-AI children will be essentially<br>
human, not some strange affected robot overlords inherently<br>
antagonistic to humanity.<br>
<br>
Now, they may weed out certain inaccurate heuristics over time, as we<br>
have (tried to) weed out things like racism and sexism (which, lest a<br>
reminder be needed, are little more than particularly damaging<br>
inaccurate heuristics: they make predictions that are false too often<br>
to be useful).  Being something that humans do, this too is by<br>
definition a human thing to do, whether or not the AIs carry it to a<br>
degree beyond what unaugmented humans can.  (If being uploaded means I<br>
have memory space for personal details about each of the thousands of<br>
people I interact with in a given month, such that I can care about<br>
them when I interact with them, I'll take it.)<br>
<div class="HOEnZb"><div class="h5">______________________________<wbr>_________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/<wbr>mailman/listinfo.cgi/extropy-<wbr>chat</a><br>
</div></div></blockquote></div><br></div>