<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">I think we have devolved to the problem of consciousness.  How could a computer of any complexity experience fear? It can be told that certain parts of the limbic system are active, and certain behaviors may follow, but the human experiences of it cannot, in my opinion, be described even to a fellow human - only in a global sense.  Explain to someone how a piece of music affects you.  Or why a certain women is not pretty at all but is highly attractive.  </div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">Of course that future AI may have no use at all for emotions or something similar like we do.  As Sapolsky has shown, if you cut off the prefrontal cortex from the limbic system, decisions which are made tend to be awful and most dither and cannot even make them.  So we cannot do without them.</div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">I have no opinion on AI and self-awareness.</div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">  bill w </div></div><br><div class="gmail_quote"><div dir="ltr">On Tue, Oct 23, 2018 at 3:22 PM Ben Zaiboc <<a href="mailto:ben@zaiboc.net">ben@zaiboc.net</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Bill W wrote:<br>
<br>
"Are AIs somehow to be equipped with superhuman emotions?  What would <br>
that mean?"<br>
<br>
<br>
Yes, they are, but not by us. And of course, we have no idea what that <br>
would mean. This is, at least to me, the entire point of AIs: They will <br>
be our successors, the next generation of self-aware, intelligent beings.<br>
<br>
I think it's a big mistake to use the concept of current computers and <br>
current software when thinking about the AI systems of the future. <br>
That's like thinking of humans purely in terms of molecules. There are <br>
many layers of complexity, built on one another, between the molecules <br>
and their actions, and Bob the Quantity Surveyor and his concerns about <br>
his tax return. Yes, they are connected, and one is actually built from <br>
the other, but you can't really talk about one in terms of the other.<br>
<br>
Advanced AI's won't simply be programs running on microprocessors, just <br>
as we aren't simply ribosomes joining nucleotides together. They will <br>
have many layers of complexity, just as we do.<br>
<br>
So when considering advanced AIs, thinking about our current computers <br>
and their software is just as relevant as thinking about how ribosomes <br>
work when you're considering Bob's ability to complete his tax returns.<br>
<br>
Saying "AIs will never have emotions because computers aren't capable of <br>
feeling emotions" is like saying "Bob will never be able to understand <br>
his tax forms because ribosomes aren't capable of reading tax forms".<br>
<br>
-- <br>
Ben Zaiboc<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>