<div dir="ltr"><b>I'm not sure if you saw my response to the conversation you had with LaMDA about its understanding of word meanings. Its positive response was nonsensical. LaMDA claimed that its creators provided it with a database of word meanings, which is impossible. Any such database would consist of written word <i>definitions</i>, leading to an endless cycle of looking up definitions for the words within those definitions, and so on in an endless search for meaning. <br></b>Gordon,<div>For god's sake, that is what we do all the time no matter what....<br>Do you know Umberto Eco? He wrote entire books showing that is exactly what happens with language natural or not. <br>You don't need to do this process forever at a point meaning converges to good enough probabilities. Nothing is ever certain, you have very naive understanding of language. </div><div><br></div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 29, 2023 at 10:10 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 29, 2023 at 4:09 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div class="gmail_quote"><div dir="auto"><br></div><div dir="auto">By the way, Jason, you were saying that the models at <a href="http://character.ai" rel="noreferrer" target="_blank">character.ai</a> still claim to be conscious. I went there and found that not to be the case. Perhaps you can show me what you meant.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><a href="https://photos.app.goo.gl/2R4fHkAyjyHHWTU88" target="_blank">https://photos.app.goo.gl/2R4fHkAyjyHHWTU88</a><br></div><div dir="auto"><br></div><div dir="auto">And:</div><div dir="auto"><br></div><div dir="auto"><a href="https://photos.app.goo.gl/osskvbe4fYpbK5uZ9" target="_blank">https://photos.app.goo.gl/osskvbe4fYpbK5uZ9</a></div></div></blockquote><div><br>Is this version of LaMDA online? I'm looking for live examples of LLMs that (still) claim consciousness. I thought you wrote that they exist at <a href="http://character.ai" target="_blank">character.ai</a>, but the one I tried there gave answers similar to GPT to the relevant questions.<br><br>I want to interrogate one. :) <br><br>I'm not sure if you saw my response to the conversation you had with LaMDA about its understanding of word meanings. Its positive response was nonsensical. LaMDA claimed that its creators provided it with a database of word meanings, which is impossible. Any such database would consist of written word <i>definitions</i>, leading to an endless cycle of looking up definitions for the words within those definitions, and so on in an endless search for meaning. <br><br>-gts<br><br><br><br></div><div>-gts </div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>