<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Mar 24, 2023 at 5:50 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Mar 24, 2023, 12:14 AM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com" target="_blank">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023 at 9:37 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br></div><div dir="auto"><div dir="auto">There's no way to read this paper: <a href="https://arxiv.org/pdf/2303.12712.pdf" rel="noreferrer" target="_blank">https://arxiv.org/pdf/2303.12712.pdf</a> and come away with the impression that GPT-4 has no idea what it is talking about.</div></div></div></blockquote><div><br>Hmm, nothing in the abstract even remotely suggests to me that GPT-4 will know word meanings any more than does GPT-3. Eventually AI on digital computers will far surpass human intelligence, but even then these computers will be manipulating the forms of words and not their meanings.   <br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">It seems to me that you have accepted Searle's arguments. I believe I can knock down his Chinese room argument. If that is what you are using to base your decision on you should know almost no philosophers or computer scientists believe his argument holds water. Here's just one of the many flaws in the argument: there's more than one mind in the room. Ask the room about its favorite food, or about its experiences as a child. The answers given will not be Searle's. Change Searle for someone else, the room will respond the same way. Searle is an interchangeable cog in the machine. Yet Searle wants us to believe only his opinion matters. In truth, his position is no different than the "laws of physics" which "mindlessly" computes our evolving brain state "without any understanding" of what goes on in our heads. Searle's Chinese room argument works as any great magic trick does: through misdirection. Ignore the claims made by the man in the room who is shouting and waving his arms. Since we've established there are two minds in the room, we can replace Searle with a mindless demon and there still will be one mind left.</div><div dir="auto"><br></div></div></blockquote><div><br></div><div>### Indeed, Searle's room is a parlor trick. We discussed it to death here about 20 years ago, IIRC. How could seemingly intelligent people take it seriously?</div><div><br></div><div>Rafal </div></div></div>