<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 19, 2023, 4:21 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><b>I just read a physics article about symmetry... would you be willing to assert the point above with additional clarity on "language"?  Either by defining it as some form of protocol with agreement on semantics or reducing it to simple signals that are (arbitrarily) constrained by time and space?</b><br><br>Hi Mike,<br>One of the interesting things is actually the LLMs are not told anything about semantics or even grammar but they actually derive it from the language regularities. It is not obvious at all and human experts claimed it was not possible for neural networks to do that from scratch and direct programming. These experts were wrong. <br>They simply have no understanding of how the ANN work, they are supposed to come close to how our brain works (plus much better memory and processing power than we have) and extract meaning from patterns and relationships (what else is ANN if not a bunch of knots in a complex tapestry?). The meaning emerges from the patterns and no referents (or at least absolute, external referents) are necessary.<br>In physics, this is true even more so and I gave many examples in the last several weeks of this ongoing discussion. <br>I wanted to write a Medium article on this. The fact we are using language models to understand the world is a powerful theoretical unification too and when you get this unification in science a lot of progress follows naturally. I have also a strong intuition that actually language gave us the consciousness we associate with being humans. <br><br>Giovanni <br></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">To add to Giovanni's points, as I see it, every instance of intelligence is reducible to some form of prediction. That is, intelligence (selecting an intelligent course of action) is always done by predicting which of a set of possible actions will yield the most favorable outcome. I write about this a bit here:</div><div dir="auto"><br></div><div dir="auto"><a href="https://alwaysasking.com/when-will-ai-take-over/#What_is_Intelligence">https://alwaysasking.com/when-will-ai-take-over/#What_is_Intelligence</a><br></div><div dir="auto"><br></div><div dir="auto">Framed in this light, LLMs, as general purpose systems able to learn patterns from examples and create models that can predict future symbols given past samples, can be viewed as algorithms for both universal learning and universal intelligence, which is not limited to the domain of language, but applicable to any kind of behavior that requires intelligence.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 19, 2023 at 8:17 AM Mike Dougherty via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 19, 2023, 8:15 AM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">. Everything is language even for our brains. <br></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I just read a physics article about symmetry... would you be willing to assert the point above with additional clarity on "language"?  Either by defining it as some form of protocol with agreement on semantics or reducing it to simple signals that are (arbitrarily) constrained by time and space?</div><div dir="auto"><br></div><div dir="auto">Hmm.</div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"></div>
</blockquote></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>