<div dir="ltr"><b>But if you consider how to make such a table of all possible recordings of actions by an intelligent mind, it requires putting the mind into every possible situation at some time in the past. In this way, you aren't really escaping consciousness, just interfacing with a consciousness that existed long ago. Eliezer Yudkowski likened talking to a Blockhead brain to having a cell phone conversation with a distant intelligent (and conscious) mind.<br></b>Human minds are in a sense all Blockhead because we don't react in real-time anyway, there is always a delay between sensory input and decision-making. </div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 21, 2023 at 4:04 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 21, 2023, 12:47 AM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div lang="EN-US" style="overflow-wrap: break-word;"><div><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><div style="border-right:none;border-bottom:none;border-left:none;border-top:1pt solid rgb(225,225,225);padding:3pt 0in 0in"><p class="MsoNormal"><b>From:</b> Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com" rel="noreferrer" target="_blank">gordon.swobe@gmail.com</a>> <br><b>…</b><br>>…As for the "club," there is no club, but most AI researchers are not wild-dreamers and prone to hyperbole. One would never know it from what goes on here on ExI, but my views on these matters are the mainstream.  -gts<br><br><u></u><u></u></p></div><div><div><p class="MsoNormal" style="margin-bottom:12pt"><u></u> <u></u></p><p class="MsoNormal" style="margin-bottom:12pt">Hard to say really.  Plenty of people have concluded ChatGPT is human level or higher intelligence while stopping short of saying it is conscious.  This is what gave me the idea of separating those two parameters into perpendicular axes somehow, then seeing if we can find a way to measure them.<u></u><u></u></p><p class="MsoNormal" style="margin-bottom:12pt">We have ways of measuring human intelligence (we think we do (in some specific areas)) but I know of no tests for consciousness.  So now our job is to invent such tests.<u></u><u></u></p><p class="MsoNormal" style="margin-bottom:12pt">Ideas?<u></u><u></u></p><p class="MsoNormal" style="margin-bottom:12pt">OK I have one idea, a bad one: ask it if it is conscious.  OK did that, it claims it is not.  But that is inconclusive, for if it is conscious it might lie and claim that it is not.<u></u><u></u></p><p class="MsoNormal" style="margin-bottom:12pt">Wait, this whole notion might be going down a completely wrong absurd road.  Does it make a lick of sense to separate intelligence from consciousness?  Billw or anyone else, does that make any sense to hypothetically dissociate those concepts, which cannot be separated in humans?</p></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">In principle (but not in practice) conscious can be separated from intelligence by recording every possible intelligent behavior as a response to every possible situation. These are sometimes referred to as lookup tables or Blockhead minds in honor of Ned Block who used this argument as a way to suggest you could have functional equivalence without any processing, understanding, awareness, and in theory, without consciousness.</div><div dir="auto"><br></div><div dir="auto">But if you consider how to make such a table of all possible recordings of actions by an intelligent mind, it requires putting the mind into every possible situation at some time in the past. In this way, you aren't really escaping consciousness, just interfacing with a consciousness that existed long ago. Eliezer Yudkowski likened talking to a Blockhead brain to having a cell phone conversation with a distant intelligent (and conscious) mind.</div><div dir="auto"><br></div><div dir="auto">There's a technique in software engineering called memoization which uses memory to store the result of functions such that when the same input is seen again, the function need not be computed again. We might ask, would a brain that used such techniques be less conscious or differently conscious. Would it over time devolve into a Blockhead zombie or would it retain it's experience. Here I think it might depend at how low a level the memoization is applied.</div><div dir="auto"><br></div><div dir="auto">But all this is just to say that by trading off memory for processing, we can in theory reduce the number of uniquely created instances of conscious experiences to just one. In practice, this isn't possible, as the combinations of possible inputs greatly exceeds what could be recorded using all the atoms of the universe, so this will always remain just a thought experiment.</div><div dir="auto"><br></div><div dir="auto">Consciousness (which I define as awareness of information) is required to implement certain functional capacities, including nearly any intelligent behavior, as all intelligence requires interaction with the environment, and so minimally one must be conscious of at least some information from the environment to act intelligently.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
</blockquote></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>