<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Apr 16, 2023 at 5:59 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 15/04/2023 23:01, Giovanni Santostasi wrote:<br>
> Another even deeper mystery that the communicability of qualia is how <br>
> the brain creates an I. <br>
<br>
Oh, I thought that was simple. In it's essentials, anyway. I'm sure the <br>
details of the implementation are pretty complex, but the principle, as <br>
I understand it, is just that in amongst the many models we make, of the <br>
external world and other agents etc., there's a model of the agent doing <br>
the modelling. This model is referred to as 'I', just like the model of <br>
my cousin is referred to as 'Brian'. So when we say "Brian is going to <br>
the shops", we are making a prediction involving the 'Brian' model, and <br>
when we say "I am going to the shops" we are making a prediction <br>
involving the 'I' model (which of course encompasses the system doing <br>
the predicting). So you could call it a 'self-referential model'.<br>
<br>
Or is this obvious and trivial, and you're talking about the details of <br>
how this is done?<br>
<br>
If you mean the actual implementation, then I doubt anyone knows just <br>
yet. It's a general question about how the brain creates and manipulates <br>
models, especially models of agent systems. Probably quite high in the <br>
layers of abstraction, so analysing it in terms of neuronal connections <br>
will be difficult.<br>
<br>
But once we know how the brain creates models in general, we'll know <br>
what an 'I' is, as it's just another model.<br>
<br>
(Some models will be simpler than others, but going by how the brain <br>
works in general, and the massive duplication it uses, I doubt if a <br>
self-model will be that much different from a model of your room. Bigger <br>
and more complex, yes, but using the same principles).<br></blockquote><div><br></div><div><br></div><div>Your description of a model growing to include itself brought the following passage to mind:</div><div><br></div></div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div class="gmail_quote">"The evolution of the capacity to simulate seems to have culminated in subjective consciousness. Why this should have happened is, to me, the most profound mystery facing modern biology. [...] Perhaps consciousness arises when the brain’s simulation of the world becomes so complete that it must include a model of itself. Obviously the limbs and body of a survival machine must constitute an important part of its simulated world; presumably for the same kind of reason, the simulation itself could be regarded as part of the world to be simulated. Another word for this might indeed be “self-awareness,”</div><div class="gmail_quote">-- Douglas Hofstadter and Daniel Dennett in "The Mind’s I" (1981)</div></blockquote><div class="gmail_quote"><div> </div><div>Jason</div></div></div>