<div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 28, 2023 at 3:10 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto"><div dir="auto"><br></div><div dir="auto">Yes. Already we see the "LLM" learns much more than just language. It can do math, chess, computer programming, compose musical melodies, and draw pictures. It learned all these skills and incorporated them all into the same model.</div></div></blockquote><div dir="auto"><br></div><div dir="auto">I think that from the perspective of language models, all these things count as language. </div><div dir="auto"><br></div><div dir="auto">When a musician reads sheet music, she is reading the language of music. The music itself is the meaning of the musical language. When we refer to how we appreciate a piece of music, we are referring to the referents of this musical language. </div><div dir="auto"><br></div><div dir="auto">And here again we have the same question I have posed about language models and English language. While the language model might be capable of extraordinary things in the synthesis of musical language based on its deep learning of the language of human music, perhaps composing symphonies magnificent to the human ear, it has no access to the referents. It seems to me that just as a pure language model cannot know the meanings of words, it cannot appreciate the music. </div><div dir="auto"><br></div><div dir="auto">-gts   </div><div dir="auto"><br></div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto"><div dir="auto"></div></div></blockquote></div></div>