<div dir="ltr"><div dir="ltr">On Thu, Apr 20, 2023 at 8:12 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com">gsantostasi@gmail.com</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">I mentioned this claim because it came directly from Google's CEO. It is not a scientific claim and it is not mentioned in a scientific article so some level of skepticism is needed. At the same time, Gordon is jumping on it to discredit supporters of the emergent capabilities of AIs as expected. </div></blockquote><div><br>If you would only read what I've written, you know that I do not deny that emergent properties might explain some of the amazing results we see. What I do deny is that LLMs have a conscious understanding of the meanings of the words they input and output.  LLMs have no access to the referents from which words derive their meanings. Another way to say this is that they have no access to experiences by which symbols are grounded. <br><br>GPT-4 agrees completely and claims, quite understandably, that it lacks consciousness.<br><br>-gts<br><br><br><br></div></div></div>