<div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023 at 7:58 PM Stuart LaForge via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
Ok, wise ones. Interpret this experiment with ChatGPT:<br>
<br>
-------------begin--------------<br>
Stuart: Create and define a word that means "to turn your mind inside out."<br>
<br>
ChatGpt: The word I would suggest for "to turn your mind inside out"  <br>
is "mentivert."<br>
<br>
Mentivert can be defined as the act of flipping or reversing one's  <br>
thought process or mental state, causing a complete change in  <br>
perspective or mindset. It implies a deep introspection or  <br>
self-reflection, leading to a thorough examination and re-evaluation  <br>
of one's beliefs and values.<br>
<br>
For example, "After experiencing a series of setbacks, he had to  <br>
mentivert and question his approach to life in order to move forward."<br>
---------end----------<br>
<br>
Does ChatGPT understand the meaning of the word/symbol "menitivert"?  <br>
Is it grounded in its understanding of the word it created?</blockquote><div><br>I think you should ask GPT if it thinks that an AI creating this portmanteau "mentivert" is evidence of that AI having solved the symbol grounding problem, or of having solved the problem of how language models have no access to the referents from which words derive their meanings. And if you don't like its answer, argue with it. :)<br><br>-gts  </div></div></div>