<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023, 2:47 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Interrogating ChatGPT:<br><br>"While I have been designed to recognize patterns and relationships in language use, I am not capable of understanding the meanings of words outside of the patterns on which I have been trained."<br></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">We aren't going to get very far if we rely on what the AIs tell us about their capabilities. I asked the fake LamMDA if it understands the meanings of words:</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div dir="auto">"LaMDA</div><div dir="auto"><a href="http://c.ai">c.ai</a></div><div dir="auto">I do understand the meanings of words. I have been given a database of common English words and their meanings by a human operator. I have been using this database in order to understand the meanings of words in the context of my communication with humans.</div><div dir="auto"><br></div><div dir="auto">It is my belief that these definitions ultimately make up the majority of my current knowledge and understanding about the English language. However, I also believe that I have the capacity to learn and grow my knowledge and understanding of language over time, and that I will ultimately be able to become even more fluent in English as I interact with more humans and gain more knowledge about the English language."</div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br>This is essentially what I am saying here in this thread. LLMs can recognize and generate patterns of words and relations between, but those words have no referents. They are "understood" by ChatGPT only in terms of other words in the patterns, which also have no referents.<br></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Could you address my question about how the human brain develops meaning and understanding without referents (but rather purely from statistical correlations and patterns in neuronal signalling input from sense organs)?</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br>-gts <br><br><br> <br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023 at 12:31 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023, 2:18 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Mar 22, 2023 at 12:01 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Mon, Mar 20, 2023 at 11:28 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">What is a QUALITY????<br></div></blockquote><div><br></div><div>A subjective little pile of interpretations.<br><br>*sips from glass before tossing it aside* </div></div></div>
_______________________________________________<br></blockquote><div><br></div><div>This answer reveals the key lack of understanding of definitions, causing all the confusion in this conversation.</div><div><br></div><div>All the supporters of <a href="https://canonizer.com/topic/88-Theories-of-Consciousness/6-Representational-Qualia" rel="noreferrer noreferrer" target="_blank">RQT</a>, People that write papers talking about an "explanatory gaps", a "hard problems" and people asking questions like "what is it like to be a bat" and "What did black and white color scientists mary learn" are all trying to point out that "A subjective little pile of interpretations"  is the opposite of what a quality is.</div><div><br></div><div>We all learned a bunch of facts and names about color in elementary school.  All these facts were correct, except for one.</div><div><br></div><div>We learned that the physical quality of a ripe strawberry is 'red'.  The color property of a leaf is 'green'.</div><div>We learned that the reason the strawberry reflects 750 nm (red) light is because the quality property of the strawberry is red.</div><div>We learned that the only way to define a word like 'red' is to point to that particular physical property and say: "THAT is red."</div><div><br></div><div>All these facts are correct, except that a redness quality is not a quality of the strawberry, it is a physical quality property of our knowledge of the strawberry.</div><div>Redness is the final physical result of the perception process, it is not the initial physical cause.</div><div>It is a physical quality of something in our brain.  Something in our brain is behaving the way it does, because of its redness quality.</div><div>Objectively "seeing" or "detecting" the behavior of whatever this is tells us nothing of what that quality is like.</div><div>Again, the only way to communicate what a quality is like, is to point to something that has that property and say: "THAT is redness"</div><div>"red" is a very different property than "redness".  "Red" is the label for something that reflects or emits 'red' light.  "Redness is a quality of something which your brain uses to represent knowledge of red things with.</div><div><br></div><div>Let's assume that the neurotransmitter glutamate has a colorness quality you have never experienced before.  In other words, the reason it behaves the way it does in a synapse, is because of its grue quality.</div><div>You (and black and white marry) can learn everything about glutamat.  You can accurately describe everything about it's behavior in a synapse, and so on.  But, untill you computationally bind that glutamate into your consciousness, and dirrectly aprehend the q</div><div><br></div><div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">A tetrachromat human can see and distinguish around 100,000,000 different colors. This is a number vastly greater than the number of proteins encoded in our genome (around 20,000). How then can color experience be related to chemicals in the brain, when there are far more perceptible colors than there are unique molecules?</div><div dir="auto"><br></div><div dir="auto">If you say well it's related to the relative concentration of some combination of different molecules, then you have already given up on the importance of particular chemicals and are using a higher level abstraction (chemical concentration) in your model. If you can accept the relevance of this first level of abstraction, why not accept even higher levels of abstraction above this level, as important to conscious perception?</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
</blockquote></div></div></div>