<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 21, 2023, 1:25 AM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="blue" vlink="purple" style="word-wrap:break-word"><div class="m_-5980132650141149719WordSection1"><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Regarding measuring GPT’s intelligence, this must have already been done and is being done.  Reasoning: I hear GPT is passing medical boards exams and bar exams and such, so we should be able to give it IQ tests, then compare its performance with humans on that test.  I suspect GPT will beat everybody at least on some tests.</p></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">The last I remember seeing was that it scored a 119 on a general IQ test, and 147 on a verbal IQ test. I don't remember whether this was for ChatGPT or GPT-4.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="blue" vlink="purple" style="word-wrap:break-word"><div class="m_-5980132650141149719WordSection1"><p class="MsoNormal"><u></u><u></u></p><p class="MsoNormal"><u></u>So… now we need to assume for the sake of investigation that consciousness and intelligence are (somehow) separable mental processes.  I don’t know of any test analogous to an IQ test for consciousness.  Does anyone here know of such a thing?</p></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Just as there are many forms and ways of being intelligent, there will be many ways of being conscious. Intelligence is measured by evaluating optimality of actions towards achieving some objective, while consciousness must be measured by determining the presence of knowledge states necessary to perform some behavior.</div><div dir="auto"><br></div><div dir="auto">E.g. if the robot arm reliably catches a thrown ball, something in the system must be conscious of the ball's trajectory and position relative to the arm.</div><div dir="auto"><br></div><div dir="auto">If consciousness were not necessary for intelligent behavior, why would nature bother to evolve (and retain) it?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="blue" vlink="purple" style="word-wrap:break-word"><div class="m_-5980132650141149719WordSection1"><p class="MsoNormal"><u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">After all my posts, I think I have just argued myself back to where I started: without some objective way to measure consciousness, we are doing little more here than debating the definition of an ill-defined term.</p></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I come at it from the other direction: we need the definition first. When we can agree on that we can agree on how it can be measured.</div><div dir="auto"><br></div><div dir="auto">Jason</div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="blue" vlink="purple" style="word-wrap:break-word"><div class="m_-5980132650141149719WordSection1"><p class="MsoNormal"><u></u></p></div></div>
</blockquote></div></div></div>