<div dir="ltr"><div dir="ltr"><br><div>Hi Adrean,</div><div>I agree with most everything you are saying, but you seem to be missing what I'm trying to focus on.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jul 16, 2022 at 11:28 AM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Sat, Jul 16, 2022 at 9:39 AM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><span style="color:rgb(80,0,80)">You said: "</span>Things like redness might be part of it, <span style="color:rgb(80,0,80)">" which says to me you would agree that, though the one on the right can "function" the same (as in can tell you the strawberry is red) you would not consider it to have the same kind of conscious knowledge as you, who knows the physical definition of redness, and would answer different than the one on the right, when asked: "What is redness like for you?"</span><br></div></blockquote><div><br></div><div>I would consider it to have functionally the same kind of conscious knowledge until presented with evidence to the contrary.</div></div></div></blockquote><div><img src="cid:ii_l5o6zm280" alt="3_functionally_equal_machines_tiny.png" width="320" height="118"><br></div><div><br></div><div>Surely you must admit that these 3 are all fundamentally different.</div><div>IF redness could emerge from some set of 1s and 0s, or whatever "function" or "pattern" results in a redness experience, then you could do whatever that is, and engineer the one on the right, to use whatever that set of 1s and 0s are, which have the redness quality.  and you could invert that to get the one in the middle.  Then that one would answer the question of "what is redness like for you?" differently than the one, on the right.</div><div><br></div><div>The critical issue I'm trying to get to is we have no physical description of what it is in the world that has all the colorness qualities we can experience.  All we know are the colors things seem to be.  People think there is a 'hard' problem of consciousness, that qualia are "ineffable' but it is just a color problem.  All we are missing is the dictionary which says it is X, in the brain, that has the redness quality you represent knowledge of red things with.  Another part is colorness qualities are a key part of the way we do consciousness.  Consciousness computes directly on whatever it is, in the brain, (even if some function or pattern is what is responsible for redness) which has this quality.</div><div><br></div><div>In my opinion, it is CRITICAL that people understand the importance of knowing the colorness qualities of physical things, not just the colorness qualities things seem to have.  If we could have 10,000 people sign a petion, then not only would the experimentalists start to look for what it is, in the brain that has a redness quality, we would finally discover what it is.  Once we discover that, it's going to falsify all the crap in the gap theories of consciousness (like functionalism and dualism, which seperate qualia from physical reality).  And we could achieve a scientific consensus about consciousness, and how we not only know what is and isn't conscious, but we know what various conscious systems are like.</div><div><br></div><div>I guess I"m asking you to either support the petition camp "Representational Qualia Theory" (hopefully, someday we'll have 10,000 supporters) or if you disagree, help us create and support a better competing camp.  May the best camp achieve the most consensus.</div><div><br></div><div>We need to know what consciousness not only is, but what it is like.  our moral future, and how fast we get to things like mind uploading and brain augmentation, depends on it.</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">nfo.cgi/extropy-chat</a><br>
</blockquote></div></div>