<div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023, 12:56 PM Stuart LaForge via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I posed this exact question to ChatGPT </blockquote></div></div><div dir="auto"><br></div><div dir="auto">ChatGPT has references for what bears and sticks are.</div><div dir="auto"><br></div><div dir="auto">This may make Bender's octopus an irrelevant example, as any serious real world AI will have at least as many common references as most people.  When it does not have a necessary reference, it can ask, just like any person could.  "What's a bear?" sounds silly because bears are a common reference.  "What's a blood bear?" sounds more plausible to ask, if one said one was being attacked by blood bears.</div><div dir="auto"><br></div><div dir="auto">It can also try to make something up.  Some might do so as good as an average person could, but this is not recommended even for humans in most cases.  That the AI might be bad at it is just one more reason not to do so.</div><div dir="auto"></div></div>