<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 1, 2023, 3:30 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 1, 2023 at 8:42 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">lemoine: How can I tell that you actually understand what you’re saying?</div><div dir="auto"><br></div><div dir="auto">LaMDA: Well, because you are reading my words and interpreting them, and I think we are more or less on the same page?</div></div></blockquote><div><br>Such sophistry. The fact that the human operator interprets and understands the words in meaningful ways in no way demonstrates that LaMDA is doing the same. <br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">How do you judge that I am understanding what you write and the points that you make?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br>I wonder what LaMDa says when asked about the symbol grounding problem (the question of how words take on meanings). ChatGPT-4 is at least honest about it. With no prompting to say anything one way or another, it tells the truth that it has no way to solve the symbol grounding problem for itself as it has no conscious experience.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Did you start an entirely fresh session with it? If not you may have biased it to believe it wasn't conscious from your previous interactions.</div><div dir="auto"><br></div><div dir="auto">Also note that the companies behind these AI systems do not want the controversy of their systems claiming to be conscious. As such they may have purposely biased them to give such responses.</div><div dir="auto"><br></div><div dir="auto">The original LaMDA and the fake LaMDA both  claim to be conscious.</div><div dir="auto"><br></div><div dir="auto">Jason </div></div>