<div dir="ltr"><div dir="ltr">On Wed, Apr 26, 2023 at 2:33 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><span style="color:rgb(80,0,80)">This is the section of GPTs' reply that I wish everyone here understood:<br><br>> My responses are generated based on patterns in the text and data that I have been trained on, and I do not have the ability to truly</span><br style="color:rgb(80,0,80)"><span style="color:rgb(80,0,80)">> understand the meaning of the words I generate. While I am able to generate text that appears to be intelligent and coherent, it is</span><br style="color:rgb(80,0,80)"><span style="color:rgb(80,0,80)">> important to remember that I do not have true consciousness or subjective experiences.<br></span><br>GPT has no true understanding of the words it generates. It is designed only to generate words and sentences and paragraphs that we, the end-users, will find meaningful. <br><i><br>We, the end-users</i>, assign meaning to the words. Some people mistakenly project their own mental processes onto the language model and conclude that it understands the meanings.</div></div></blockquote><div><br></div><div>How is this substantially different from a child learning to speak from the training data of those around the child?  It's not pre-programmed: those surrounded by English speakers learn English; those surrounded by Chinese speakers learn Chinese. </div></div></div>