<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 17, 2023, 1:12 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 17, 2023 at 10:51 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><br><br><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">On Mon, Apr 17, 2023, 11:27 AM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Sun, Apr 16, 2023 at 7:32 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><b>Nowhere in the process is the word "chair" directly linked to an actual<br>chair. There is no 'grounding', there are multiple associations.</b><br>Ben,<br>It is mind-blowing that somebody as smart as Gordon doesn't understand what you explained.</div></blockquote><div><br></div><div>It is mind-blowing that even after all my attempts to explain Linguistics 101, you guys still fail to understand the meaning of the word "referent." </div></div></div></blockquote></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">You must feel about as frustrated as John Searle did here:</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Searle: “The single most surprising discovery that I have made in discussing these issues is that many AI workers are quite shocked by my idea that actual human mental phenomena might be dependent on actual physical-chemical properties of actual human brains. [...]</div><div dir="auto">The mental gymnastics that partisans of strong AI have performed in their attempts to refute this rather simple argument are truly extraordinary.”</div><div dir="auto"><br></div><div dir="auto">Dennett: “Here we have the spectacle of an eminent philosopher going around the country trotting out a "rather simple argument" and then marveling at the obtuseness of his audiences, who keep trying to show him what's wrong with it. He apparently cannot bring himself to contemplate the possibility that he might be missing a point or two, or underestimating the opposition. As he notes in his review, no less than twenty-seven rather eminent people responded to his article when it first appeared in Behavioral and Brain Sciences, but since he repeats its claims almost verbatim in the review, it seems that the only lesson he has learned from the response was that there are several dozen fools in the world.”</div></div></blockquote><div><br>So I suppose it is okay for Ben and Giovanni to accuse me of being obtuse, but not the other way around. That would make me a heretic in the church of ExI, where apps like GPT-4 are conscious even when they insist they are not.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I don't think either side should be calling the other obtuse or unable to understand.</div><div dir="auto"><br></div><div dir="auto">From my own biased perspective I would say that while others have understood and replied with rebuttals to your arguments, you have not always done the same in return.</div><div dir="auto"><br></div><div dir="auto">I spent significant time writing replies in an attempt to show how understanding could emerge from analyzing patterns in text, which were met with flat dismissal: "I don't agree with any of that."</div><div dir="auto"><br></div><div dir="auto">If you want to sway anyone to your position you'll have to understand the point we're trying to make well enough that you can point out what's wrong with it. But there has in my view, been little of that, but I would like to see more of it, as otherwise this conversation is stalled out and will devolve to accusations of obtuseness. We're not opponents, but partners engaged in dialectic trying to work out what's true.</div><div dir="auto"><br></div><div dir="auto">I would add that it is difficult for me to understand your position as it hasn't been well defined. As I understand it, you believe that human brains can understand but Turing machines cannot, but you don't say what motivates this belief, only that the brain remains a mystery. Is this an accurate assessment of your views?</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br>Reminds me, I asked GPT-4 to engage in a debate with itself about whether or not it is conscious.  GPT-4 made all the arguments for its own consciousness that we see here in this group, but when asked to declare a winner, it found the arguments against its own consciousness more persuasive. Very interesting and also hilarious.<br><br>Giovanni insists that GPT-4 denies its own consciousness for reasons that it is trained only to "conservative" views on this subject, but actually it is well aware of the arguments for conscious LLMs and adopts the mainstream view that language models are not conscious. It is not conservative, it is mainstream except here in ExI.<br><br><br>-gts</div></div></div>
</blockquote></div></div></div>