<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><blockquote type="cite" class=""><div dir="ltr" class="">But Gordon insists on GPT-4 has no understanding as if it was a mantra.</div></blockquote><div class=""><br class=""></div>Mantras are indeed powerful. All one has to do if confronted with a contradiction is close the eyes and repeat the mantra until the problem dissolves.<div class=""><br class=""></div><div class="">GPT-4 can model human language. GPT-4 doesn’t understand words.</div><div class="">GPT-4 can solve math and coding problems. GPT-4 doesn’t understand logic.</div><div class="">GPT-4 can model spatial properties. GPT-4 doesn’t understand 3d space.</div><div class=""><br class=""></div><div class="">GPT-4 can explain all this. GPT-4 can’t think.</div><div class=""><div><br class=""><blockquote type="cite" class=""><div class="">On Apr 14, 2023, at 4:00 PM, Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" class="">extropy-chat@lists.extropy.org</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div dir="ltr" class="">Or Gordon repeating GPT-4 has no meaning for the word apple when it came up by itself in saying we can use the indent of an apple as a way to distinguish an apple from a pear. Then it draws pears, and bowls (using 2 different ellipses one above the other to give the illusion of a rim), it knows where to apply the eyes of a person, and hair, it can draw little cute puppies. Or an AI and human exchanging a brain. All this without any visual training and relying on the internal representation of these objects. But Gordon insists on GPT-4 has no understanding as if it was a mantra. <br class="">Giovanni </div><br class=""><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 14, 2023 at 11:54 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" class="">extropy-chat@lists.extropy.org</a>> wrote:<br class=""></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br class="">
OK, we've established that Brent believes in 'physical properties' in <br class="">
the brain, but can't explain what they are, and that Gordon believes in <br class="">
'referents' for words being physical objects, and can't explain how we <br class="">
know what Smaug is.<br class="">
<br class="">
We've also established that neither will budge from their position, and <br class="">
constantly ignore any attempts to explain logically how those positions <br class="">
must be false.<br class="">
<br class="">
For all the talk of 'falsifiable hypotheses', there seems to be little <br class="">
enthusiasm for abandoning them when they are actually falsified.<br class="">
<br class="">
The only end to these arguments will come through exhaustion or boredom. <br class="">
I see no possibility of an actual resolution.<br class="">
<br class="">
Ben<br class="">
_______________________________________________<br class="">
extropy-chat mailing list<br class="">
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" class="">extropy-chat@lists.extropy.org</a><br class="">
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank" class="">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br class="">
</blockquote></div>
_______________________________________________<br class="">extropy-chat mailing list<br class=""><a href="mailto:extropy-chat@lists.extropy.org" class="">extropy-chat@lists.extropy.org</a><br class="">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat<br class=""></div></blockquote></div><br class=""></div></body></html>