<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Apr 16, 2023 at 4:55 AM Stuart LaForge via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
So your definition of consciousness is of a qualitative state.  <br>
Something one has or one does not? Then would you agree that of the  <br>
animals you do not deem conscious are instead sentient to a greater or  <br>
lesser degree?<br></blockquote><div><br></div><div>### No,no, consciousness is a quantity! It's just that most animals have zero consciousness, some animals have tiny sparks of it, humans have a flickering flame, and the superhuman AI will be like a blazing sun.</div><div>-----------------------------------</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
Apparently the human brain architecture is topologically more like a  <br>
recurrent neural network (RNN) than a transformer feed forward network  <br>
(FFN) such as GPT. RNNs use loops between ordinal layers to generate  <br>
what is called "attention" in machine learning.<br>
<br>
Transformers, on the other hand, use a feature called "self-attention"  <br>
that allows the attention loops to be in parallel, with all the  <br>
attention confined on the same layer that generated it. Delirium is a  <br>
very interesting intuition for what it might be like to be a  <br>
transformer model. By nature of its attention loops, if it experienced  <br>
anything at all, then it would have to experience everything related  <br>
to a topic at once. Parallel execution of all possible trains of  <br>
thoughts from an input, before choosing one to express.<br></blockquote><div><br></div><div>### AFAIK the cortex processes inputs in parallel, with activation spreading e.g. from a primary sensory cortex to multiple cortical areas (linguistic, physical modeling, social modeling) in a subconscious way and then some of the results of the widespread activation may enter the global workspace and thus consciousness through an attention mechanism that works at the level of the whole brain. I know too little about the details of RNNs vs FFN but my guess is that the human brain has features that have not yet been implemented in AIs... at least not in a planned way.</div><div><br></div><div>Rafal</div><div> </div></div></div>