<div dir="ltr">It's a trick question rather than a true comparison.  Most people read the fact that a comparison is requested to mean that the first statement implies that Linda is not active in the feminist movement, when in fact the first statement is neutral about that.</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 2, 2023 at 9:25 AM William Flynn Wallace via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)">from Neurosciencenews daily:<br><br></div><div class="gmail_default" style="font-size:large;color:rgb(0,0,0)"><p style="font-family:Lato,sans-serif;box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px">“One classic test problem of cognitive psychology that we gave to GPT-3 is the so-called Linda problem,” explains Binz, lead author of the study.</p><p style="font-family:Lato,sans-serif;box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px">Here, the test subjects are introduced to a fictional young woman named Linda as a person who is deeply concerned with social justice and opposes nuclear power. Based on the given information, the subjects are asked to decide between two statements: is Linda a bank teller, or is she a bank teller and at the same time active in the feminist movement?</p><p style="font-family:Lato,sans-serif;box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px">Most people intuitively pick the second alternative, even though the added condition – that Linda is active in the feminist movement – makes it less likely from a probabilistic point of view. And GPT-3 does just what humans do: the language model does not decide based on logic, but instead reproduces the fallacy humans fall into.\\</p><p style="font-family:Lato,sans-serif;box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px"><br></p><p style="box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px"><font face="comic sans ms, sans-serif">So they are programming cognitive biases into the AIs?  Inadvertently, of course.   ????    Bill W</font></p></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>