<div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sun, Oct 21, 2018 at 1:47 PM William Flynn Wallace <<a href="mailto:foozler83@gmail.com">foozler83@gmail.com</a>> wrote:</span><br></div><div class="gmail_quote"><div dir="ltr"><div class="gmail_quote"><br></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Recent books by Damasio and Sapolsky show conclusively that without emotions, people just cannot make decisions that make much sense. </div></div></div></blockquote><div><br></div><div class="gmail_default" style=""><font face="arial, helvetica, sans-serif"></font><font size="4">AlphaZero makes decisions when it plays GO or Chess or Shogi and those decisions make sense, more sense than the decisions the humans make when they play against it. So I guess AlphaZero has emotions.</font></div><div class="gmail_default" style=""><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Are AIs somehow to be equipped with superhuman emotions? </div></div></div></blockquote><div><br></div><div class="gmail_default" style=""><font face="arial, helvetica, sans-serif"></font><font size="4">They don't need to be super, regular old emotions will do. From a operational viewpoint a emotion is just a predisposition to do X rather than Y, and I see no reason that would be especially hard to program. For example, pain could be a subroutine such that the closer the number in the X register comes to the integer P the more computational resources will be devoted to changing that number, and if it ever actually equals P then the program should stop doing everything else and do nothing but try to change that number to something far enough away from P until it's no longer an urgent matter and the program can again do things that have nothing to do with P.</font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><span style="color:rgb(0,0,0);font-family:"comic sans ms",sans-serif"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Historically,of course, emotional decisions were regarded as greatly flawed and to be avoided, and now we find out that we simply cannot avoid them.  </span></blockquote><div><br></div><div><div class="gmail_default" style=""><font face="arial, helvetica, sans-serif"></font><font size="4">I agree, there is no logical reason to prefer doing something rather than nothing or to prefer life more than death, but I like something better than nothing and life better than death anyway because that's the way my brain is wired.<br><br>John K Clark</font><br></div><br></div><br>
</div></div>