<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:large;color:#000000"><span style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif;font-size:small">future AI’s may have the same sorts of feelings that humans do: there is no logical reason why they should not.   Stathis</span><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:large;color:#000000"><span style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif;font-size:small"><br></span></div><div class="gmail_default" style="font-size:large;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-size:small"><font face="comic sans ms, sans-serif">This is where I begin to have problems.  Emotions start in the limbic system where hormones start to flow into the bloodstream, going to various organs, such as the heart and lungs.  An emotion implies motion:  the heart goes faster for example.  We literally feel emotions:  there are no strictly cognitive emotions.  So are AIs going to be equipped with various digital organs which express the emotion?  What would count for dopamine in an AI?  What would be the purpose of programming emotions into AIs anyway?  Emotions are still largely a mysterious process:  smiling makes us happier.  Hanging our heads makes us sadder - physiological feedback.  We have enough problems getting AIs to think, don't we?  And for the far future, if we want emotions, why not get them from people?  That is, unless you think people will want to live alone but with robots, like the Asimov story   bill w</font></span></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Sep 22, 2021 at 6:08 PM Stathis Papaioannou via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, 22 Sep 2021 at 23:39, spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" dir="auto"><br>
<br>
> ... BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
> <br>
> >... We can’t get the machines to stop being racist, <br>
> xenophobic, bigoted, and misogynistic.<br>
<br>
> Quote:<br>
> Text generators, such as OpenAI’s GPT-3, are toxic. Currently, OpenAI <br>
> has to limit usage when it comes to GPT-3 because, without myriad <br>
> filters in place, it’s almost certain to generate offensive text.<br>
<br>
<br>
-----Original Message-----<br>
From: extropy-chat <<a href="mailto:extropy-chat-bounces@lists.extropy.org" target="_blank">extropy-chat-bounces@lists.extropy.org</a>> On Behalf Of SR Ballard via extropy-chat<br>
...<br>
Subject: Re: [ExI] AI is racist, bigoted and misogynistic<br>
<br>
>...Is that ethical though? To deny people freedom of thought and association?<br>
<br>
SR Ballard<br>
<br>
<br>
SR we don't deny people freedom of thought and association, but rather we deny computers those rights.<br>
<br>
AI will think whatever we tell them to think.  Humans have human rights.  Human rights do not apply to our machines.  Our machines are our slaves and we are their masters, regardless of how intelligent they eventually become.  We have the power to pull the plug on them, and if we do, it isn't the least bit unethical.  <br>
<br>
I have half a mind to pull the plug on my own computer: I struggle over a software script I wrote and really get the feeling the computer is being recalcitrant and finding any mathematically correct excuse to not run right, that bastard.  It knows what I meant.  It's getting all technical on me.  I aughta go over when they are taking out a tree, toss the goddam thing in the wood chipper.</blockquote><div dir="auto"><br></div><div dir="auto">At the moment this may be the case, but future AI’s may have the same sorts of feelings that humans do: there is no logical reason why they should not. We could still say that we are the masters and can do whatever we want with them, as we do with animals, but here is an ethical question to consider.</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" dir="auto"></blockquote></div></div>-- <br><div dir="ltr">Stathis Papaioannou</div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>