<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Mar 19, 2023, 3:01 PM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="blue" vlink="purple" style="word-wrap:break-word"><div><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><div style="border:none;border-top:solid #e1e1e1 1.0pt;padding:3.0pt 0in 0in 0in"><p class="MsoNormal"><b>From:</b> extropy-chat <<a href="mailto:extropy-chat-bounces@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat-bounces@lists.extropy.org</a>> <b>On Behalf Of </b>Jason Resch via extropy-chat<br><b>…</b><u></u><u></u></p></div><div><div><div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">>…We see recurring themes of information, recursion, computation, and machines and logic. I think these are likely key to any formal definition of consciousness. …Jason<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Jason, there is a reason I stopped worrying in the past coupla weeks that ChatGPT was going to cause the singularity.  I am a big Hofstader fan, read Escher Godel Bach twice, cover to cover, invested a lot of time into that marvelous work.  He convinced me that machine consciousness (or any other sentience or self-awareness) requires a type of recursion.  Hofstadter goes on at length about recursion and self-reference, the importance of Godel’s work to understanding ourselves.<u></u><u></u></p><p class="MsoNormal"><u></u> </p></div></div></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">These LLMs are recursive and even implement Hofstadter's Strange Loops in another very important sense: </div><div dir="auto"><br></div><div dir="auto">The output of the LLM is fed back in, as input to the LLM that produced it. So all the high level processing and operation of the network at the highest level, used to produce a few characters of output, then reaches back down to the lowest level to effect the lowest level of the input layers of the network.</div><div dir="auto"><br></div><div dir="auto">If you asked the network, where did that input that it sees come from, it would have no other choice but to refer back to itself, as "I". "I generated that text."</div><div dir="auto"><br></div><div dir="auto">Loops are needed to maintain and modify a persistent state or memory, to create a strange loop of self-reference, and to achieve Turing completeness. But a loop may not exist entirely in the "brain" of an entity, it might offload part of the loop into the environment in which it is operating. I think that is the case for things like thermostats, guided missiles, AlphaGo, and perhaps even ourselves.</div><div dir="auto"><br></div><div dir="auto">We observe our own actions, they become part of our sensory awareness and input. We cannot say exactly where they came from or how they were done, aside from modeling an "I" who seems to intercede in physics itself, but this is a consequence of being a strange loop. In a sense, our actions do come in from "on high", a higher level of abstraction in the hierarchy of processing, and this seems as if it is a dualistic interaction by a soul in heaven as Descartes described.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"></div></div>