<div dir="auto">The thing that gets missed so often here, is that gpt4 isn't just mapping arbitrary token strings to arbitrary token strings. It's mapping human generated language strings to human generated language strings.<div dir="auto"><br></div><div dir="auto">Those human generated language strings, A ) are a tiny, infinitesimal subset of the space of all token strings, and B ) have a /lot/ of internal structure, simply by virtue of being human generated language. These strings were generated by systems, which is to say people, whose symbols /do/ ground in a larger consistent system, the universe.</div><div dir="auto"><br></div><div dir="auto">Earlier philosophers who despaired of the symbol grounding problem being solvable were not, I think, imagining the /vast/ amount of written text and images of the real world that large language models have access to.</div><div dir="auto"><br></div><div dir="auto">It turns out that a Boltzmann brain floating in interstellar space, if it reads enough about Earth, can have a very deep understanding of how Earth works, without having directly experienced it. The fact that the training data grounds in reality caused the learned model to inherit that grounding, in a way that a similarly complex model trained on arbitrary token strings would not</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 28, 2023, 12:03 PM Darin Sunley <<a href="mailto:dsunley@gmail.com">dsunley@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">GPT-4 is architecturally incapable of introspection. It has a lot of knowledge on a wide variety of subjects, but the only things it knows about itself is what has been written in its training material. It cannot perceive its own decision making process directly, even to the extremely limited extent humans can. I am therefore not terribly interested in what it has to say about its own cognition and consciousness. (Beyond, of course, being endlessly fascinated, entertained, and mildly future shocked that it /can/ execute discourse on the nature of consciousness at all. Like Scott Aaronson said, how is it people can stop being fascinated and amazed at LLMs long enough to get angry with each other over them?) It's statements about itself are fascinating, but not compelling.<div><br></div><div>Moreover, I have no idea what your "understanding meaning" even is. If being able to give precise and correct definitions of every word it uses, and using those words precisely correctly in the context of every other word it knows, coining new words, providing operational definitions of those new words, and again using them flawlessly in arbitrary contexts isn't "understanding", than not only do I not know what "understanding" is, but I'm not certain I care. The thing demonstrates every characteristic of reading comprehension we assess school students for. </div><div><br></div><div>One might just as well say an electronic circuit doesn't /really/ do arithmetic. That's as may be, but then I'm pretty sure I then don't actually care about "real arithmetic." As with arithmetic, a flawless imitation of understanding /is/ understanding. Why should I care about a distinction that appears to have no difference?</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 28, 2023 at 11:35 AM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 26, 2023 at 1:10 PM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
  
    
  
  <div>
    <br>
    <br>
    <div>On 26/04/2023 18:32,
      <a href="mailto:extropy-chat-request@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat-request@lists.extropy.org</a> wrote:<br>
    </div>
    <blockquote type="cite">
      <div dir="ltr">On Wed, Apr 26, 2023 at 10:58 AM Ben Zaiboc via
        extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>>
        wrote:<br>
      </div>
      <div class="gmail_quote">
        <blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
          <div>
            <blockquote type="cite">
              <div>
                <div class="gmail_quote">
                  <div dir="auto">I wrote to you that in my opinion you
                    were conflating linguistics and neuroscience. </div>
                  <div dir="auto"><br>
                  </div>
                  <div dir="auto">Actually, you went further than that,
                    arguing that linguistics is not even the correct
                    discipline.  But you were supposedly refuting my
                    recent argument which is entirely about what
                    linguistics — the science of language — can inform
                    us about language models.</div>
                  <div dir="auto"><br>
                  </div>
                  <div dir="auto">-gts</div>
                </div>
              </div>
            </blockquote>
            <br>
            <br>
            Yes, prior to my question. Which has a point. But you are
            still dodging it.</div>
        </blockquote>
        <div><br>
        </div>
        <div>I simply have no interest in it.</div>
      </div>
    </blockquote>
    <br>
    OK, then. That clears that up. You have no interest in even
    listening to someone else's argument, much less engaging with it. I
    get it.</div></blockquote><div><br>I explained that while your theory of spike trails in the brain and so on is interesting, it tells me nothing about how a digital computer with no brain and no nervous system and no sense organs or sensory apparatus whatsoever can understand the meanings of words merely from analyzing how they appear in relation to one another statistically in the corpus. <br><br>The reality as I see it and <u><i>as GPT-4 itself explains it</i> </u>is that it does not truly understand the meanings of words. We all find that amazing and difficult to believe as the words appear meaningful to us and sometimes even profoundly meaningful, but we as the end-users of this technology are the ones finding/assigning the meanings to the words. GPT-4 is merely generating symbols that it has a high degree of confidence will have meaning to us.<br><br>-gts</div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
</blockquote></div>