<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023 at 12:20 AM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><b>GPT "understands" words only in so much it understands how how they fit into patterns, statistically and mathematically in relation to other words in the corpus on which it is trained, which is what it appears to be saying here<br></b><br>1) How do you know humans do not the same <a href="https://www.fil.ion.ucl.ac.uk/bayesian-brain/#:~:text=The%20Bayesian%20brain%20considers%20the,the%20basis%20of%20past%20experience" target="_blank">https://www.fil.ion.ucl.ac.uk/bayesian-brain/#:~:text=The%20Bayesian%20brain%20considers%20the,the%20basis%20of%20past%20experience</a>.</div></blockquote><div><br>This is an article about Bayesian reasoning, a theory that we use Bayesian reasoning innately to estimate the likelihood of hypotheses. It's all very interesting but nowhere does it even hint at the idea that humans are like language models, not knowing the meanings of words but only how they relate to one another statistically and in patterns. We know the meanings of the words in our hypotheses, for example, spoken or unspoken.</div><div><br>-gts<br></div><div><br></div></div></div>