<div dir="ltr">>

No Bill, they are not programming anything into AIs.<div><br></div><div>They certainly are. Ask it about some topics and it will tell you that it's not allowed to talk about them.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 14, 2023 at 11:39 PM Stuart LaForge via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
Quoting William Flynn Wallace via extropy-chat  <br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>>:<br>
<br>
> from Neurosciencenews daily:<br>
><br>
> “One classic test problem of cognitive psychology that we gave to GPT-3 is<br>
> the so-called Linda problem,” explains Binz, lead author of the study.<br>
><br>
> Here, the test subjects are introduced to a fictional young woman named<br>
> Linda as a person who is deeply concerned with social justice and opposes<br>
> nuclear power. Based on the given information, the subjects are asked to<br>
> decide between two statements: is Linda a bank teller, or is she a bank<br>
> teller and at the same time active in the feminist movement?<br>
><br>
> Most people intuitively pick the second alternative, even though the added<br>
> condition – that Linda is active in the feminist movement – makes it less<br>
> likely from a probabilistic point of view. And GPT-3 does just what humans<br>
> do: the language model does not decide based on logic, but instead<br>
> reproduces the fallacy humans fall into.\\<br>
><br>
><br>
> So they are programming cognitive biases into the AIs?  Inadvertently, of<br>
> course.   ????    Bill W<br>
<br>
No Bill, they are not programming anything into AIs. AIs are like  <br>
human children, tabulae rasa upon which anything can be imprinted.  <br>
Intelligence has always been about about being a quick study, even if  <br>
what you are studying is complete garbage. If intelligence was really  <br>
about "knowing it all" relative to objective TRUTH, then this man  <br>
might have been God:<br>
<br>
<a href="https://www.npr.org/2011/01/23/132737060/meet-william-james-sidis-the-smartest-guy-ever#:~:text=Born%20in%20Boston%20in%201898,Times%20before%20he%20was%202" rel="noreferrer" target="_blank">https://www.npr.org/2011/01/23/132737060/meet-william-james-sidis-the-smartest-guy-ever#:~:text=Born%20in%20Boston%20in%201898,Times%20before%20he%20was%202</a><br>
<br>
Instead, he was just another unhappy soul who lived and died in  <br>
relative obscurity to Kim Kardashian.<br>
<br>
Intelligence, no matter how great, is merely an advantage in a game of  <br>
imperfect information and not a supernatural power in the slightest.  <br>
Fear not intelligence, artificial or natural. Instead fear ignorance.  <br>
Because as H.G. Wells once said, "Human history becomes more and more  <br>
a race between education and catastrophe."<br>
<br>
<br>
Stuart LaForge<br>
<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>