<div dir="ltr"><div dir="ltr">On Wed, Apr 26, 2023 at 11:34 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>\Understanding is not a binary yes/no thing.  Multiple degrees of understanding, and lack thereof, are possible.  Note that it says it does not "truly" understand.</div><div><br></div><div>Perhaps it understands enough to know it lacks full understanding.</div></div></div></blockquote><div><br>I think it includes the qualification "truly" on account of it is so common for people to speak and write of language models and software applications in general of having understanding when, as I have argued and try to do myself, we really ought to be putting the word "understanding" in scare quotes or using some other word altogether. This is one of Professor Emily Bender's pet peeves and I agree. <br><br>GPT "understands" words only in so much it understands how how they fit into patterns, statistically and mathematically in relation to other words in the corpus on which it is trained, which is what it appears to be saying here: <br> <br><b><span style="color:rgb(80,0,80)">> My responses are generated based on patterns in the text and data that I have been trained on, and I do not have the ability to truly</span><span style="color:rgb(80,0,80)"> understand the meaning of the words I generate.</span><span style="color:rgb(80,0,80)"> <br>> -GPT<br></span></b><br>-gts</div></div></div>