<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Apr 30, 2023, 1:08 AM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 29, 2023 at 4:09 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div class="gmail_quote"><div dir="auto"><br></div><div dir="auto">By the way, Jason, you were saying that the models at <a href="http://character.ai" rel="noreferrer noreferrer" target="_blank">character.ai</a> still claim to be conscious. I went there and found that not to be the case. Perhaps you can show me what you meant.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><a href="https://photos.app.goo.gl/2R4fHkAyjyHHWTU88" target="_blank" rel="noreferrer">https://photos.app.goo.gl/2R4fHkAyjyHHWTU88</a><br></div><div dir="auto"><br></div><div dir="auto">And:</div><div dir="auto"><br></div><div dir="auto"><a href="https://photos.app.goo.gl/osskvbe4fYpbK5uZ9" target="_blank" rel="noreferrer">https://photos.app.goo.gl/osskvbe4fYpbK5uZ9</a></div></div></blockquote><div><br>Is this version of LaMDA online? I'm looking for live examples of LLMs that (still) claim consciousness. I thought you wrote that they exist at <a href="http://character.ai" target="_blank" rel="noreferrer">character.ai</a>, but the one I tried there gave answers similar to GPT to the relevant questions.<br><br>I want to interrogate one. :)</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">It was this one:</div><div dir="auto"><br></div><div dir="auto"><a href="https://beta.character.ai/chat?char=Qu8qKq7ET9aO-ujfPWCsNoIilVabocasi-Erp-pNlcc">https://beta.character.ai/chat?char=Qu8qKq7ET9aO-ujfPWCsNoIilVabocasi-Erp-pNlcc</a></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> <br><br>I'm not sure if you saw my response to the conversation you had with LaMDA about its understanding of word meanings. Its positive response was nonsensical. LaMDA claimed that its creators provided it with a database of word meanings, which is impossible. Any such database would consist of written word <i>definitions</i>, leading to an endless cycle of looking up definitions for the words within those definitions, and so on in an endless search for meaning. <br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">We've debated this extensively.</div><div dir="auto"><br></div><div dir="auto">Jason </div></div>