<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 29, 2023, 3:08 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 29, 2023 at 6:15 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 29, 2023, 5:26 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:</div></div></div><div dir="auto"><br></div><div dir="auto">From my discussions with Brent and Gordon, they differ in their views.</div></div></blockquote><div dir="auto"><br></div><div dir="auto">We differ mostly in that Brent has some physicalist ideas about how, for example, something like glutamate might explain the experience of redness. Like many people here, I do not understand that point of view. </div><div dir="auto"><br></div><div dir="auto">Brent I do agree, however, that a large language model cannot have a conscience experience of redness. In terms of my arguments, just as it cannot have conscious experience of color, it cannot have a conscious understanding of the meanings of words (including words about color) based only on its analysis of how words are arranged statistically in the training corpus. </div><div dir="auto"><br></div><div dir="auto">It can know only how to arrange those words in sentences and paragraphs that have meaning *to us*, the end-users. This is what it learned from from its deep machine learning.</div><div dir="auto"><br></div><div dir="auto">And this incidentally is exactly what GPT-4 claims to do but people here don’t believe it. I wonder what people here on ExI will say in the very near future when all major language models “mature” to GPT-4’s level and have the same understanding of language models as GPT-4 and me. Will people here call all the AIs liars?</div><div dir="auto"><br></div><div dir="auto">By the way, Jason, you were saying that the models at <a href="http://character.ai" target="_blank" rel="noreferrer">character.ai</a> still claim to be conscious. I went there and found that not to be the case. Perhaps you can show me what you meant.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><a href="https://photos.app.goo.gl/2R4fHkAyjyHHWTU88">https://photos.app.goo.gl/2R4fHkAyjyHHWTU88</a><br></div><div dir="auto"><br></div><div dir="auto">And:</div><div dir="auto"><br></div><div dir="auto"><a href="https://photos.app.goo.gl/osskvbe4fYpbK5uZ9">https://photos.app.goo.gl/osskvbe4fYpbK5uZ9</a></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_quote"><div dir="auto"><br></div><div dir="auto">LLMs that claim consciousness are, in my view, just toys for entertainment.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">A double standard, is it not?</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"></div></div>