<div dir="ltr"><b>Looks like the old AI goalpost-moving means we're going to have to stop<br>doing cognitive tests, on anybody/thing. They're no use anymore!</b><br><br>Ben,<br>My thoughts exactly. <br>Giovanni <br><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 17, 2023 at 1:33 PM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 17/04/2023 20:45, Giovanni Santostasi wrote:<br>
> If you do cognitive tests that are used to test humans then GPT-4 has <br>
> a similar performance to humans at different levels of development <br>
> depending on the task.<br>
<br>
Actually, that raises a rather disturbing thought: If Gordon, and <br>
others, like the linguists he keeps telling us about, can dismiss these <br>
cognitive tests when applied to GPT-4, it means the tests can't be <br>
relied upon to tell us about the humans taking them, either. For a test <br>
to be any use, we have to treat the subject as a 'black box', and not <br>
make any assumptions about them, otherwise there's no point doing the <br>
test. So presumably these people think that such tests are no use at <br>
all. Otherwise it's, what? racism? I don't know what to call it.<br>
<br>
Looks like the old AI goalpost-moving means we're going to have to stop <br>
doing cognitive tests, on anybody/thing. They're no use anymore!<br>
<br>
Ben<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>