<div dir="ltr">This is a very important paper that cuts through a lot of the debate on the cognitive abilities of current AI systems. The main point is that a Theory of Mind was not hard programmed in ChatGPT (and the previous GPT versions) and while the previous versions didn't have a good theory of mind, the current version of GPT, GPT 3.5 (it doesn't seem they actually tested it on ChatGPT that is even better than GPT 3.5 because it has also reinforced learning) has the theory of mind of a 9 years old. I did similar tests myself (but not in a systematic way) and I can confirm it is the case. <br><br>I had a long convo with ChatGPT about this topic and it is a quite refined understanding of human behavior. <br>The emergence part is what is really interesting to me because this is the main learning point in interacting with these systems. Complex behavior can emerge from relatively simple processes if they have enough free parameters, complex nonlinear interactions between the parts and a large data set to train the system. <br><br>I truly believe that consciousness itself will emerge in a similar way when we have enough computational power and the parameter space reaches enough degrees of freedom similar to that of the human brain (as I said in a previous comment, that is 3-5 years away). <br>Giovanni <br><br>Here is the paper:<br><h1 class="gmail-title gmail-mathjax" style="margin:0.25em 0px 12px 20px;line-height:27.9936px;color:rgb(0,0,0);font-family:"Lucida Grande",Helvetica,Arial,sans-serif"><font size="2">Theory of Mind May Have Spontaneously Emerged in Large Language Models</font></h1><div class="gmail-authors" style="margin:8px 0px 8px 20px;line-height:24px;color:rgb(0,0,0);font-family:"Lucida Grande",Helvetica,Arial,sans-serif"><a href="https://arxiv.org/search/cs?searchtype=author&query=Kosinski%2C+M" style="text-decoration-line:none">Michal Kosinski</a></div><a href="https://arxiv.org/abs/2302.02083">https://arxiv.org/abs/2302.02083</a> <br><br><br><br></div>