<div dir="auto">Speaking of scare quotes, I have mentioned Emily Bender, Professor of Computational Linguistics. She puts much effort into trying to rid the world of such language as “the language model understands thus and so,” and “the model comprehends thus and so” not only in speech by lay-people but also in academic journals where it often appears. She calls such language “hype” and I agree completely.</div><div dir="auto"><br></div><div dir="auto">However, if people had the sense to put words like “understand” and “comprehend” in scare-quotes like I did just there, she would probably be fine with it.</div><div dir="auto"><br></div><div dir="auto">-gts</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 3, 2023 at 8:22 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 3, 2023 at 4:09 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div>I don't know if someone else has already noted this (I'm still
    catching up on the recent flood of posts), but don't you consider it
    ironic that you are using the systems own apparent understanding of
    itself to show that it doesn't understand things?<br></div></blockquote><div><br>Yes, I've noticed this and mentioned that I find it not only ironic, but hilarious, that they are themselves explaining their limitations the same way I did on this list some 15 years ago when such things as ChatGPT were only hypothetical.<br><br>Philosophers will often bracket or use scare-quotes as shortcuts to represent different senses of a word. When I agree that ChatGPT "understands" that it does not actually understand word meanings, this is only shorthand for my saying that the software identifies statistical relationships and patterns in English word-symbols that allow it to compose sentences and paragraphs and entire stories and many other kinds of documents that are meaningful to us but not to it. As ChatGPT-4 "agrees," it functions as a highly sophisticated autocomplete feature not unlike what is found in any word processing software, just far more powerful as it has been trained on a massive amount of written material.<br><br>-gts<br><br> </div></div></div>
</blockquote></div></div>