<div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023 at 9:40 AM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023 at 10:11 AM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Gordon's objection is at a more basic level, if I understand it correctly.</div></div></blockquote><div><br>Yes, I think you understand exactly what I am saying, Adrian. It looks to me like ChatGPT and other Large Language Models are something like powerful, interactive, digital dictionaries or encyclopedias. They are incredibly powerful tools, but it is a mistake attribute to them the ability to actually know the meanings of the words they contain and process.<br><br>As humans, we tend to anthropomorphize our seemingly intelligent tools.  Asked what the time is, I might say "According to my watch, it is 10:30 AM" but what I really mean is "According to me, referencing my watch as a tool, it is 10 AM." My watch itself has no idea what the time is. <br><br>Likewise, chess computers do not really *know* how to play chess and ChatGPT does not really know the meanings of the words it generates.<br><br>-gts</div></div></div>
</blockquote></div>