<div dir="ltr"><div dir="ltr">On Thu, Mar 23, 2023 at 8:39 PM Will Steinberg via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto">I don't have a lot of faith in a person who has a hypothesis and designs a thought experiment that is essentially completely irrelevant to the hypothesis. </div></blockquote><div><br>As I wrote, I agree the thought experiment does not illustrate her point clearly, at least outside of the context of her academic paper. As I've mentioned, the octopus is supposed to represent the state in which an LLM is in -- completely disconnected from the meanings of words (referents) that exist only outside of language in the real world represented by the islands. But it is a sloppy thought experiment if you don't know what she is trying to say. <br><br>It is about form vs meaning. LLMs are trained only on and only know (so to speak) the forms and patterns of language. They are like very talented parrots, rambling on and on in seemingly intelligent ways, mimicking human speech, but never having any idea what they are talking about.<br><br>-gts</div></div></div>