<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:large;color:#000000"><br style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif;font-size:small"><span style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif;font-size:small">So we are back to the old problem -</span><br style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif;font-size:small"><span style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif;font-size:small">Is the bot really 'human' or just pretending to be 'human'?  :)</span></div><div class="gmail_default" style=""><br></div><div class="gmail_default" style=""><font face="comic sans ms, sans-serif">My question:  can it do only what we program it to do, or does it have emergent properties?</font></div><div class="gmail_default" style=""><font face="comic sans ms, sans-serif"><br></font></div><div class="gmail_default" style=""><div dir="auto">This assumes it is possible to separate intelligence and consciousness.</div><div dir="auto"><br></div><div dir="auto">If nature could have done so, why did it go through all the bother of evolving and retaining consciousness (if we could have operated exactly the same without all the bother of having it)?</div><div dir="auto"><br></div><div dir="auto"><font face="comic sans ms, sans-serif">I think all creatures have intelligence - they have adapted to the world they are in, and that's the ultimate test of intelligence.  If they can't be separated,then all creatures are conscious.  Can we live with that?  Are AIs adapting?  </font></div><div dir="auto"><br></div><div>bill w</div></div><div class="gmail_default" style=""><font face="comic sans ms, sans-serif"><br></font><div class="gmail-yj6qo gmail-ajU" style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif;font-size:small;outline:none;padding:10px 0px;width:22px;margin:2px 0px 0px"><div id="gmail-:r5" class="gmail-ajR" role="button" tabindex="0" aria-label="Show trimmed content" aria-expanded="false" style="background-color:rgb(232,234,237);border:none;clear:both;line-height:6px;outline:none;width:24px;border-radius:5.5px"><img class="gmail-ajT" src="https://ssl.gstatic.com/ui/v1/icons/mail/images/cleardot.gif" style="background: url("https://www.gstatic.com/images/icons/material/system_gm/1x/more_horiz_black_20dp.png") 50% 50% / 20px no-repeat; height: 11px; opacity: 0.71; width: 24px;"></div></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, May 13, 2023 at 9:13 AM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Sat, 13 May 2023 at 13:44, efc--- via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
><br>
> Hello Bill,<br>
><br>
> That would be the surface interpretation. My thoughts are more along the<br>
> lines of what this means for these types of AI:s in a broader perspective.<br>
><br>
> Do the companies fear the consequences, do they fear political<br>
> legislation, or what about the publics reaction if a future chatgpt would<br>
> successfully manage to generate empathy?<br>
><br>
> Could we, in the long run, look at a repetition of history where our AI:s<br>
> are tools today, slaves tomorrow, and fully embraced citizens with rights<br>
> the day after tomorrow?<br>
><br>
> Best regards, Daniel<br>
>_______________________________________________<br>
<br>
<br>
<br>
Well, chatbots already demonstrate empathy with humans.<br>
See:<br>
<<a href="https://en.wikipedia.org/wiki/Kuki_AI" rel="noreferrer" target="_blank">https://en.wikipedia.org/wiki/Kuki_AI</a>><br>
<<a href="https://en.wikipedia.org/wiki/Replika" rel="noreferrer" target="_blank">https://en.wikipedia.org/wiki/Replika</a>><br>
<<a href="https://woebothealth.com/" rel="noreferrer" target="_blank">https://woebothealth.com/</a>><br>
<<a href="https://appadvice.com/app/mila-ai-assistant-chatbot/1663672156" rel="noreferrer" target="_blank">https://appadvice.com/app/mila-ai-assistant-chatbot/1663672156</a>><br>
<<a href="https://www.x2ai.com/individuals" rel="noreferrer" target="_blank">https://www.x2ai.com/individuals</a>><br>
and more........<br>
<br>
These chatbots talk to humans about their feelings and problems, and<br>
sympathise with them.<br>
The Replika reviews have people falling in love with their chatbot.<br>
Obviously, the bots don't *feel* empathy, but their words express<br>
empathy and greatly assist humans with emotional issues.<br>
<br>
So we are back to the old problem -<br>
Is the bot really 'human' or just pretending to be 'human'?  :)<br>
<br>
<br>
BillK<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>