<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023, 8:22 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr">On Thu, Mar 23, 2023 at 5:23 PM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br>> I really don’t think it thinks, but it makes us think it thinks.  ChatGPT is wicked cool.<br><br>I agree 100%. Also, like Bender and the other author of this paper, I object to the language I often see in discussions like these we have on ExI about these subjects.<br><br>quoted the paper cited in a previous message and below:<br><br>--<br>"Large LMs: Hype and analysis<br>Publications talking about the application of large LMs to meaning-sensitive tasks tend to describe the models with terminology that, if interpreted at face value, is misleading. Here is a selection from academically-oriented pieces (emphasis added):<br><br>(1) In order to train a model that *understands* sentence relationships, we pre-train for a binarized next sentence prediction task. (Devlin et al., 2019)<br><br>(2) Using BERT, a pretraining language model, has been successful for single-turn machine *comprehension*. . .(Ohsugi et al., 2019)<br><br>(3) The surprisingly strong ability of these models to *re-call factual knowledge* without any fine-tuning demonstrates their potential as unsupervised open-domain QA systems. (Petroni et al., 2019)--<br><br>In linguistics and epistemology and in philosophy in general, usually terms like "understand" and "comprehend" and "recall factual knowledge" have meanings that are not applicable to these languuge models. They do not actually comprehend or understand anything whatosever. They only make us think they do. <br><br> <a href="https://docslib.org/doc/6282568/climbing-towards-nlu-on-meaning-form-and-understanding-in-the-age-of-data" target="_blank" rel="noreferrer">https://docslib.org/doc/6282568/climbing-towards-nlu-on-meaning-form-and-understanding-in-the-age-of-data</a></div><div dir="ltr" class="gmail_attr"></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">If that's true how do I know anyone else on this list is actually comprehending or understanding anything?</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br><br><br></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>