<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Feb 8, 2025, 5:57 AM efc--- via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
<br>
On Sat, 8 Feb 2025, Giulio Prisco via extropy-chat wrote:<br>
<br>
>  We're well past that point, two years ago a computer could pass the Turing<br>
> test, these days if a computer wanted to fool somebody into thinking it was a<br>
> human being it would have to pretend to know less than it does and think<br>
> slower than it can.  <br>
<br>
Where is this computer? I have yet to meet an AI I could not distinguish from a<br>
human being. It is super easy!<br>
<br>
I suspect that this AI exists behind closed doors? Or uses a watered down<br>
version of the turing test?<br>
<br>
Please send me a link, if its available online and for free, would love to try<br>
it out. =)<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Current language models exceed human intelligence in terms of their breadth of knowledge, and speed of thinking. But they still behind in depth of reasoning (connecting long chains of logical steps). This disparity allows to distinguish LLMs from intelligent humans. But I think it would be quite difficult to distinguish an LLM told to act like an unintelligent human from an unintelligent human.</div><div dir="auto"><br></div><div dir="auto">Note that the true Turing test is a test of who is better at imitating a particular kind of person (who one is not). So, for example, to run a true Turing test, we must ask both a human and a LLM to imitate, say a "10 year old girl from Ohio". When the judges fail to reliably discriminate between humans imitating the  "10 year old girl from Ohio" and LLMs imitating the "10 year old girl from Ohio" then we can say they have passed the Turing test. (Originally the "Imitation game").</div><div dir="auto"><br></div><div dir="auto">We can increase the difficulty of the test by changing the target of imitation. For example, if we make the target a Nobel prize winning physicist, then the judges should expect excellent answers when probed on physics questions.</div><div dir="auto"><br></div><div dir="auto">At a certain point, the test becomes a meta test, where the machine finds it does so much better than the human at imitating, that it gives itself away. It then must change gears to imitate not the target of imitation, but the opponent humans tasked with imitation. At the point such meta tests reliably pass, we can conclude the AI is more intelligent than humans in all domains (at least!in all domains that can be expressed via textual conversation).</div><div dir="auto"><br></div><div dir="auto">Jason </div></div>