<div dir="ltr"><div dir="ltr">On Sat, Mar 18, 2023 at 11:42 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Mar 18, 2023, 1:54 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Volition and initiative are essential parts of consciousness.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Are apathetic people not conscious?</div></div></blockquote><div><br></div><div>Apathetic people, if left alone, will still move themselves to feed, defecate, et al.  Granted this is their minds acting in response to stimuli from their bodies, but again, such stimulus is outside the realm of a pure LLM.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>  Mere reacting, as LLMs do, is not consciousness.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">All our brains (and our neurons) do is react to stimuli, either generated from the environment or within other parts of the brain.</div></div></blockquote><div><br></div><div>Granted.  Part of the difference is the range and nearly-ever-constant nature of said stimuli, which is missing in things that are only LLMs.  (Again, making that distinction since human minds arguably include LLMs, the critical difference being that they are more than just LLMs.)</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>Volition and initiative requires motivation or goals.  If an entity is not acting in direct response to an external prompt, what is it doing?</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Sleeping.</div></div></blockquote><div><br></div><div>A fair point, though a side matter from what I was talking about.  When an entity that is conscious - which includes not being asleep at that time - is not acting in direct response to an external prompt, what is it doing?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div></div><div>If someone were to leave a LLM constantly running</div><div dir="auto"></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">The idea of constantly I think is an illusion. A neuron might wait 1 millisecond or more between firing. That's 10^40 Planck times of no activity. That's an ocean of time of no activity.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="auto"> *and* hook it up to sensory input from a robot body, that might overcome this objection. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Sensory input from an eye or ear is little different from sensory input of text.</div></div></blockquote><div><br></div><div>Not so, at least in this context.  The realms of difference between full sight, let alone sound et al, and mere text aside, these sensory inputs of text only happen when some other entity provides them.  In contrast, a full sensory suite would obtain sensory data from the environment without waiting on another entity to provide each specific packet of information.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"> Both are ultimately digital signals coming in from the outside to be interpreted by a neural network. The source and format of the signal is unimportant for its capacity to realize states of consciousness, as demonstrated by experiments of Paul Bach-y-Rita on sensory substitution.</div></div></blockquote><div><br></div><div>Substituting usually-present sound/scent/etc. for usually-present sight, or other such combinations, substitutes some usually-present sensory data for other usually-present sensory data.  In both cases, the entity is not usually waiting on someone else to give it its next hit of sensory data.  The source does matter, albeit indirectly.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>But that would no longer be only a LLM, and the claim here is that LLMs (as in, things that are only LLMs) are not conscious.  In other words: a LLM might be part of a conscious entity (one could argue that human minds include a kind of LLM, and that babies learning to speak involves initial training of their LLM) but it by itself is not one.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I think a strong argument can be made that individual parts of our brains are independently consciousness. For example, the Wada test shows each hemisphere is independently consciousness. It would not surprise me if the language processing part of our brains is also conscious in its own right.</div></div></blockquote><div><br></div><div>A fair argument.  My position is that not all such parts are independently conscious, in particular the language processing part, but that consciousness is a product of several parts working together.  (I am not specifying which parts here, just that language processing by itself is insufficient, since the question at hand is whether a language processing model by itself is conscious.)</div></div></div>