<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:large;color:#000000">from Neurosciencenews daily:<br><br></div><div class="gmail_default" style="font-size:large;color:rgb(0,0,0)"><p style="font-family:Lato,sans-serif;box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px">“One classic test problem of cognitive psychology that we gave to GPT-3 is the so-called Linda problem,” explains Binz, lead author of the study.</p><p style="font-family:Lato,sans-serif;box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px">Here, the test subjects are introduced to a fictional young woman named Linda as a person who is deeply concerned with social justice and opposes nuclear power. Based on the given information, the subjects are asked to decide between two statements: is Linda a bank teller, or is she a bank teller and at the same time active in the feminist movement?</p><p style="font-family:Lato,sans-serif;box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px">Most people intuitively pick the second alternative, even though the added condition – that Linda is active in the feminist movement – makes it less likely from a probabilistic point of view. And GPT-3 does just what humans do: the language model does not decide based on logic, but instead reproduces the fallacy humans fall into.\\</p><p style="font-family:Lato,sans-serif;box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px"><br></p><p style="box-sizing:border-box;margin:0px 0px 1em;padding:0px;color:rgb(34,34,34);font-size:15px"><font face="comic sans ms, sans-serif">So they are programming cognitive biases into the AIs?  Inadvertently, of course.   ????    Bill W</font></p></div></div>