<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
span.EmailStyle18
        {mso-style-type:personal-reply;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;
        mso-ligatures:standardcontextual;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EN-US link=blue vlink=purple style='word-wrap:break-word'><div class=WordSection1><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>…</b>> <b>On Behalf Of </b>Gordon Swobe via extropy-chat<br><b>Cc:</b> Gordon Swobe <gordon.swobe@gmail.com><br><b>Subject:</b> Re: [ExI] Language models are like mirrors<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal><o:p> </o:p></p><div><div><p class=MsoNormal>On Fri, Mar 31, 2023 at 2:18 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<o:p></o:p></p></div><blockquote style='border:none;border-left:solid #CCCCCC 1.0pt;padding:0in 0in 0in 6.0pt;margin-left:4.8pt;margin-right:0in'><div><p class=MsoNormal>Gordon,<o:p></o:p></p><div><p class=MsoNormal><b>almost everybody disagrees with you. </b><o:p></o:p></p></div></div></blockquote><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal>>…ChatGPT-4 itself agrees with me. It says it cannot solve the symbol grounding problem for itself as it has no conscious experience, and says it therefore does not understand the meanings of the words as humans do, and that in this respect it is at a disadvantage compared to humans. See my thread on the subject.<o:p></o:p></p></div><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal>>…Spike also agrees these are only language analysis tools. Brent also seems to agree that they have no access to referents and therefore  no way to know meanings of words.<o:p></o:p></p></div><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal>>…And this is not democracy, in any case. I’m not afraid to be in the company people who disagree wit me.<o:p></o:p></p></div><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal>-gts<o:p></o:p></p></div><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Gordon what I have learned from reading the discussion over the last few weeks is that even if we agree that ChatGPT is only a language model, some things still are not clear.  I had never thought of it this way, but what if… our own consciousness is merely a language model?  With certain critical enhancements of course.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>What humans are experiencing right now is analogous to what chess players were experiencing in the 1990s, as software was improving quickly.  I remember that well, as I was about a low-end expert by then or probably more high A rated.  The software was getting good enough by then that I could no longer beat it.  It wasn’t just tactics: the software appeared to be able to formulate strategy and carry it out.  <o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>The 1990s caused a lot of chess players to view ourselves differently, as humans are struggling with viewing ourselves differently now.  We could see the chess software was merely calculating something very quickly.  No one believed it was intelligent or “understood” what it was doing in the sense that humans do.  It played as if it understood, but it was just software so of course it cannot.  Played a hell of a good game however.  Perhaps we human players had fooled ourselves all along, and we too were merely calculating.  Damn.  I thought I was smarter than that.  Brilliant.  Insightful.  But no, just calculating really fast.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>We see ChatGPT doing marvelous things using mere calculation of language models.  So what if… we are doing something like that too?    Perhaps we just fooled ourselves into thinking we are smart.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>This is why I am interested in bot^2 and bot^3 discussions.  I want to see if two or three bots can discuss something and come up with new insights somehow, any really new insights, the way we have in this forum.  So far I haven’t seen a trace of evidence they can do that.  Humans can, GPT cannot.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>spike<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p></div></div></div></div></body></html>