<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023, 5:36 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023 at 3:20 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023, 4:24 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Bender's point is not that ChatGBT is incapable of generating sensible sentences about sticks and bears. It is that these LLMs don't know the meanings of any words whatsoever. Confronted with a word it has never seen, it must do a statistical analysis to try to find probable next words, never knowing what any of them mean. </div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">You keep insisting that. But you don't address the fact that our brains learn meaning and understanding from tapping into what amounts to a pure information channel.</div></div></blockquote><div><br>The brain is a mysterious organ and neuroscience is still in its infancy. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I agree we don't fully understand the brain. Nonetheless that the brain succeeds in parsing meaning from a data set shows it's possible.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> All I can say is that one does not learn the meaning of words only by looking at how they are arranged in patterns,</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">You said it is mysterious how the brain does it, so can we say with any confidence this isn't exactly what the brain does?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> which is all these language models do. They've machine-learned the syntax of language -- the rules that define how these word-symbols arrange in patterns -- and can manipulate and assemble them in patterns that follow the same rules -- but I disagree with you that from these rules they can know the meanings of the symbols.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">It understands far more than syntax. It understands facts about the world, geography, physics, math, computer programming, chemistry, biology, and mental development of humans.</div><div dir="auto"><br></div><div dir="auto">The test of understanding is checking if it can deploy it's knowledge in new situations to solve new problems. If it can do that, then it understands. Based on exchanges I have seen, I believe it can.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Jason </div></div>