<div dir="ltr"><b> How the heck could a train of spikes produce a redness experience?<br></b>But it does like everything else in our brain. Why a chemical could do that better? I don't get it. A chemical is just a mean to transmit information. The air we use to communicate via voice is not the critical thing in communicating a message. It is just a mean. There is no special characteristic of air that makes communication more meaningful. If anything it has many limitations and hindrances but it is what we had available as we evolved. <br>The spikes convey information, the experience is information that informs itself. This is the real miracle of awareness, this self-loop. It is not mysterious of other things that are, like the repulsion of 2 electrical charges, how that is done? That is what irritates me about the qualia fanatics, they think that qualia deserve an explanation that can somehow produce the experience in others (or it is not even clear what they hope a suitable explanation looks like) but they never apply this to other phenomena in the universe. They ask how does it feel to be a bat but not how does it feel to be an electron. How one feels is not science and it should not be. <br><br><br><br><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 28, 2023 at 11:23 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 28, 2023 at 11:34 AM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Wed, Apr 26, 2023 at 1:10 PM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
  
    
  
  <div><div>On 26/04/2023 18:32,
      <a href="mailto:extropy-chat-request@lists.extropy.org" target="_blank">extropy-chat-request@lists.extropy.org</a> wrote:<br>
    </div>
    <blockquote type="cite">
      <div dir="ltr">On Wed, Apr 26, 2023 at 10:58 AM Ben Zaiboc via
        extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>>
        wrote:<br>
      </div>
      <div class="gmail_quote">
        <blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
          <div>
            <blockquote type="cite">
              <div>
                <div class="gmail_quote">
                  <div dir="auto">I wrote to you that in my opinion you
                    were conflating linguistics and neuroscience. </div>
                  <div dir="auto"><br>
                  </div>
                  <div dir="auto">Actually, you went further than that,
                    arguing that linguistics is not even the correct
                    discipline.  But you were supposedly refuting my
                    recent argument which is entirely about what
                    linguistics — the science of language — can inform
                    us about language models.</div>
                  <div dir="auto"><br>
                  </div>
                  <div dir="auto">-gts</div>
                </div>
              </div>
            </blockquote>
            <br>
            <br>
            Yes, prior to my question. Which has a point. But you are
            still dodging it.</div>
        </blockquote>
        <div><br>
        </div>
        <div>I simply have no interest in it.</div>
      </div>
    </blockquote>
    <br>
    OK, then. That clears that up. You have no interest in even
    listening to someone else's argument, much less engaging with it. I
    get it.</div></blockquote><div><br>I explained that while your theory of spike trails in the brain and so on is interesting, it tells me nothing about how a digital computer with no brain and no nervous system and no sense organs or sensory apparatus whatsoever can understand the meanings of words merely from analyzing how they appear in relation to one another statistically in the corpus.</div></div></div></blockquote><div><br></div><div>Ben.  All spike trails or trains, or whatever, begin and end with neurotransmitters being dumped into a synapse, right?  Seems to me that someone who predicts someone's knowledge of <img src="cid:ii_lh1l3jmc0" alt="red_border.png" width="24" height="25">, is more likely to be spike trains, than the quality of a chemical in a synapse, like Giovani, has no ability to understand or model the true nature of a subjective qualities.  How the heck could a train of spikes produce a redness experience?  Just like functionalists can't provide a falsifiable "function" that would result in redness, without passing the laugh test, there is no hypothetical example of any train of spikes, from which a redness experience would result.  I bet you can't give me any example that would pass the laugh test.</div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>The reality as I see it and <u><i>as GPT-4 itself explains it</i> </u>is that it does not truly understand the meanings of words. We all find that amazing and difficult to believe as the words appear meaningful to us and sometimes even profoundly meaningful, but we as the end-users of this technology are the ones finding/assigning the meanings to the words. GPT-4 is merely generating symbols that it has a high degree of confidence will have meaning to us.</div></div></div></blockquote><div><br></div><div>I don't think I'd go this far.  the fact that GPT-4 is "merely generating symbols that it has a high degree of confidence will have meaning to us." to me, says it has the ability to model exactly that meaning, and know what that meaning is.  And its models must be very isomorphic to a lot of facts both platonic and physical, otherwise, it couldn't do what it is doing.  True, there is a lot of meaning missing.  But there is a lot of meaning that it must be understood and modeled in some way way, otherwise it couldn't do what it does.</div><div><br></div><div><br></div><div><br></div><div><br></div><div> </div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>