<div><br></div><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 12, 2023 at 3:54 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto"><div dir="auto"><br></div></div></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto"><div dir="auto">Let's see if when we agree on a premise that we can reach the same conclusion: </div><div dir="auto"></div></div></blockquote><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto"><div dir="auto">If we assume there's not something critical which we have yet to discover about the brain and neurons, would you agree that the inputs to the brain from the external world are ultimately just nerve firings from the senses, and from the brain's point of view, the only information it has access to is the timings of which nerves fire when? If you agree so far, then would you agree the only thing the brain could use as a basis of learning about the external world are the correlations and patterns among the firing…<span style="font-family:Söhne,ui-sans-serif,system-ui,-apple-system,"Segoe UI",Roboto,Ubuntu,Cantarell,"Noto Sans",sans-serif,"Helvetica Neue",Arial,"Apple Color Emoji","Segoe UI Emoji","Segoe UI Symbol","Noto Color Emoji";font-size:16px;white-space:pre-wrap;color:rgb(209,213,219)"> </span></div></div></blockquote><div dir="auto"><br></div><div dir="auto">I’m not sure about “correlations and patterns,” but yes only if I reluctantly make that assumption that there is nothing more to the brain and mind then I can agree. Recall that you already asked me this question and I replied that I am not a strict empiricist.</div><div dir="auto"><br></div><div dir="auto">Also, even if that is all there is to the brain and mind, in my view and in agreement with Nagel, no *objective* description of these neural processes in the language of science or computation can capture the facts of conscious experience which exist not objectively, but only from a particular point of view. </div><div dir="auto"><br></div><div dir="auto">You might want to argue that my position here leads to dualism, but that is not necessarily the case. The dualist asserts a kind of immaterial mind-substance that exists separate from the material, but that supposed mind-substance is thought to exist objectively. The dualist makes the same mistake as the physicalist.</div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto"><div dir="auto">I agree the human brain is not akin to a LLM.</div><div dir="auto"><br></div><div dir="auto">But this is separate from the propositions you also have disagreed with:</div><div dir="auto">1. That a digital computer (or LLM) can have understanding.</div><div dir="auto">2. That a digital computer (or LLM) can be conscious.</div></div></blockquote><div dir="auto"><br></div><div dir="auto">Yes, and it is best to combine the two. I disagree that LLMs have conscious understanding.</div><div dir="auto"><br></div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto"><div dir="auto">I give the LLM some instructions. It follows them. I concluded from this the LLM understood my instructions. You conclude it did not.<br></div><div dir="auto"><br></div><div dir="auto">I must wonder: what definition of "understand" could you possibly be using that is consistent with the above paragraph?</div></div></blockquote><div dir="auto"><br></div><div dir="auto">As above, LLMs have no *conscious* understanding, and this LLM called GPT-4 agrees.</div><div dir="auto"><br></div><div dir="auto">As I’ve written, the sort of unconscious understanding to which you refer is trivial and uninteresting. My smart doorbell “understands” when there is motion outside my door. I am not impressed. </div><div dir="auto"><br></div><div dir="auto">-gts</div></div></div>