<div dir="ltr"><br><div>Hi Rafal,</div><div>You seem to be talking about computationally bound composite qualia, in a way that seems almost blind to elemental qualia.  Elemental qualia, like redness and grenness, can be computationally bound to all the composite qualia you are talking about.  I'm talking about the elemental physical quality that can be physically isolated from the stuff you are talking about.  Redness is something physical, out of which composite conscious experience like you talk about can be built.  It's just the redness, nothing else.</div><div>Brent<br></div><div><br></div><div><br></div><div><br></div><div> </div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Jul 9, 2019 at 11:52 PM Rafal Smigrodzki <<a href="mailto:rafal.smigrodzki@gmail.com">rafal.smigrodzki@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">While perusing the other qualia thread, it occurred to me that qualia experienced by different neural networks are incommensurate, even when the networks process the same inputs and produce the same outputs. <div><br></div><div>There is for all practical considerations an infinity of ways to wire up a visual system reliably capable of parsing an image and assigning measures of reflectance (colors) to various parts of the image. Each of these networks uses synaptic connections which are in detail completely different from other networks, and yet all the networks would agree on the colors of any specific image. There is objective agreement between networks but trying to simply mash together any two networks into a single one would completely break them, since the precise synaptic circuits are completely different.<div><br></div><div>If the networks have a subjective experience, it is thus created by completely different circuits. If qualia are a function of such circuits' performing some physical actions, then the differences between the circuits' structures should produce different qualia in each network, even when looking at the same image and naming the same colors. I am not talking about a network using another network's "red" qualia to code for its own green outputs, but rather I think their qualia are completely incommensurate, like speaking a completely different internal language.</div></div><div><br></div><div>I don't know if this notion was explored in the other qualia thread (TLDR). I hope I am not retreading what's been said before. </div><div><br></div><div>I guess that a sophisticated understanding of neural network functioning at the synapse level, and synapse-by-synapse manipulation of a network that reports on its qualia might allow us to make some inroads into the qualia question, over and above the arm-waving arguments we have now.</div><div><br></div><div>Once I am uploaded and take a bunch AI programming courses I'll do some experiments on my neural structure, and report here on how it feels. </div><div><br></div><div>I expect it will be quite groovy.</div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>