<div dir="auto">Whether or not the 'symbol grounding' problem can be solved is a decades-old unsolved philosophy problem.   It is Mary the Color Scientist, essentially.  It's just not clear whether experience can be inferred from descriptions.  I think there are good arguments for both sides, but it is hardly solved.  Stop acting Iike it is.  <div dir="auto"><br></div><div dir="auto">How do we know that there are not symbols intrinsically coded in the relations between words?  Many philosophers would probably say they are.   Are you saying that you could not determine the meaning of a single word with access to all words ever written?  I just don't think that's decided yet.  </div><div dir="auto"><br></div><div dir="auto">And what's to say computers DON'T already have sensory experiences?  Can you point to what we have that is a special determinant of the ability to have experience?  If you can't, how are you arguing with such sureness?  We are arguing whether a particular computer has the experience of itself.   Whether computers have experience in general is literally the hard problem of consciousness.  If you have solved that, I think many renowned philisophers and theorists of mind would love to know where qualia come from.  If you can't say where they come from, how do you know a computer doesn't have qualia of itself?  You don't.  Please stop acting like everyone here who is agnostic about the situation is a moron.  You haven't solved the hard problem.  If you have, please write a paper or a book about it as I would love to finally know the answer.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 1, 2023, 3:37 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 1, 2023 at 8:42 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">lemoine: How can I tell that you actually understand what you’re saying?</div><div dir="auto"><br></div><div dir="auto">LaMDA: Well, because you are reading my words and interpreting them, and I think we are more or less on the same page?</div></div></blockquote><div><br>Such sophistry. The fact that the human operator interprets and understands the words in meaningful ways in no way demonstrates that LaMDA is doing the same. <br><br>I wonder what LaMDa says when asked about the symbol grounding problem (the question of how words take on meanings). ChatGPT-4 is at least honest about it. With no prompting to say anything one way or another, it tells the truth that it has no way to solve the symbol grounding problem for itself as it has no conscious experience.<br><br>-gts </div><div><br></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>