<div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 14, 2023 at 3:12 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com">gsantostasi@gmail.com</a>> wrote:<br></div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I have<b> </b>a really hard time imagining how this is derived from a simple autocomplete operation.</div></blockquote><div dir="auto"><br></div><div dir="auto">Obviously it is not a “simple” autocomplete operation. It is a highly complex and sophisticated autocomplete operation, unlike anything the world has ever seen, derived from statistical analysis of massive amounts of text, but autocomplete is essentially what it is doing, predicting one token after another after another…</div><div dir="auto"><br></div><div dir="auto">I don’t dispute that emergent properties might account for some of the uncanny things these models can do, but I think conscious understanding of the meanings of the words and sentences they generate with no possible access to the referents/meanings is something else. The forms of words do not contain the seeds of their meanings.</div><div dir="auto"><br></div><div dir="auto">-gts</div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="auto"><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 14, 2023 at 1:46 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com" target="_blank">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div dir="auto">I’ll bet if you ask it to draw a perfect circle, it will draw one without ever having “seen” one. It should have learned from the language about circles including the language of mathematics of circles how to draw one. Is that really so amazing?</div><div dir="auto"><br></div><div dir="auto">-gts</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">On Fri, Apr 14, 2023 at 2:17 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com" target="_blank">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 14, 2023 at 1:54 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com" target="_blank">gsantostasi@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br>I showed you the different pics GPT-4 can create given nonvisual training. How can it draw an apple and know how to distinguish it from a pear…</div></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">These tasks have nothing to do with the statistical properties of words given they are spatial tasks and go beyond verbal communication. How do you explain all this? </div></blockquote><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">They *do* have to do with the statistical properties of words and symbols and the relations and patterns between them. The shapes of pears and apples (and eyes etc) are describable and distinguishable in the language of mathematics.</div><div dir="auto"><br></div><div dir="auto">I agree it is amazing, but the “meaning” is something we assign to the output.</div><div dir="auto"><br></div><div dir="auto">-gts</div></div></div>
</blockquote></div></div>
</blockquote></div>
</blockquote></div></div>