<div>On Sun, Apr 16, 2023 at 6:39 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div dir="auto">Do you at least agree there's sufficient information in text to learn the meaning of the word 'two'?</div></div></blockquote><div dir="auto"><br></div><div dir="auto">If you enter the words or the numerals for one, two, three, four and ask GPT-4 to continue, it will dutifully, like a good autocomplete algorithm, continue the series with five, six, seven, eight, and so on. To you, this is probably evidence that it consciously understands the meaning of “two,” but it is not true conscious understanding of numbers and GPT-4 will be the first to admit it. </div><div dir="auto"><br></div><div dir="auto">This goes back to the discussion of the symbol grounding problem in mathematics that we just had just a day or so ago. Apparently, nothing I wrote there registered.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">-gts</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div dir="auto"></div><div class="gmail_quote" dir="auto"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr">Spend 10 minutes putting yourself in the shoes of someone in a Korean library (with no pictures or translations) given thousands of years to figure out what any of the symbols mean.</div></div></blockquote></div></div></blockquote><div dir="auto"><br></div></div></div>