<div><br></div><div dir="auto">I’ll bet if you ask it to draw a perfect circle, it will draw one without ever having “seen” one. It should have learned from the language about circles including the language of mathematics of circles how to draw one. Is that really so amazing?</div><div dir="auto"><br></div><div dir="auto">-gts</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">On Fri, Apr 14, 2023 at 2:17 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 14, 2023 at 1:54 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com" target="_blank">gsantostasi@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br>I showed you the different pics GPT-4 can create given nonvisual training. How can it draw an apple and know how to distinguish it from a pear…</div></blockquote><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">These tasks have nothing to do with the statistical properties of words given they are spatial tasks and go beyond verbal communication. How do you explain all this? </div></blockquote><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">They *do* have to do with the statistical properties of words and symbols and the relations and patterns between them. The shapes of pears and apples (and eyes etc) are describable and distinguishable in the language of mathematics.</div><div dir="auto"><br></div><div dir="auto">I agree it is amazing, but the “meaning” is something we assign to the output.</div><div dir="auto"><br></div><div dir="auto">-gts</div></div></div>
</blockquote></div></div>