<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:large;color:#000000">Consciousness is the set of functions that enable the intellectual functions to work. They are separate. ; bill w</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 21, 2023 at 8:59 AM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="msg941089740763372967"><div lang="EN-US" style="overflow-wrap: break-word;"><div class="m_941089740763372967WordSection1"><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><div><div style="border-right:none;border-bottom:none;border-left:none;border-top:1pt solid rgb(225,225,225);padding:3pt 0in 0in"><p class="MsoNormal"><b>…</b>> <b>On Behalf Of </b>Ben Zaiboc via extropy-chat<br><b>Cc:</b> Ben Zaiboc <<a href="mailto:ben@zaiboc.net" target="_blank">ben@zaiboc.net</a>><br><b>Subject:</b> Re: [ExI] all we are is just llms<u></u><u></u></p></div></div><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">On 21/04/2023 06:28, spike wrote:<br><br><u></u><u></u></p><blockquote style="margin-top:5pt;margin-bottom:5pt"><p class="MsoNormal">>>…Regarding measuring GPT’s intelligence, this must have already been done and is being done.  Reasoning: I hear GPT is passing medical boards exams and bar exams and such, so we should be able to give it IQ tests, then compare its performance with humans on that test.  I suspect GPT will beat everybody at least on some tests.<u></u><u></u></p></blockquote><p class="MsoNormal"><br><br>>…Yeah, but don't forget, spike, they just have <i>simulated</i> understanding of these things we test them for. So the test results are not really valid. That will include IQ tests. No good. Simulated intelligence, see?<br><br>Ben<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Ja, Ben where I was really going with that idea is exploring whether it is possible to separate consciousness from intelligence.  It isn’t clear at all that those are two different things, but I am no expert on these matters.  We can imagine some kinds of intelligence tests which AI can beat everyone, but that in itself doesn’t prove that software is conscious.  If it doesn’t, then what I am looking for is a way to somehow model consciousness as a separate thing from intelligence, even if the two are highly correlated (which I suspect they are (but I don’t know (because I am waaaay the hell outside my area of expertise with this entire discussion (I have learned a lot here however (and thanks to all who are posting on the topic.)))))<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">A lotta what people are doing with ChatGPT today is just assuming intelligence and assuming away or ignoring consciousness, treating those as two separate things.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Eliezer must have come upon this question dozens of times by now, but I haven’t followed Less Wrong over the years.  Eli followers, has he published anything anywhere close to the notion of treating consciousness and intelligence as two separate things?<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">spike  <u></u><u></u></p></div></div>_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</div></blockquote></div>