<div dir="ltr"><br><div>OK, let me ask you this.  Are you interested in finding out the colorness qualities of anything in physics?  Not just the colerness qualities things seem to have?</div><div><br></div><div>In my opinion, that is one of the most important completely unknown questions in physics today.  Nobody knows the intrinsic colerness quality of anything.</div><div>And of course, again, once we discover which of all our descriptions of physics in the brain is a description of redness, (it will falsify all the crap in the gap theories like substance dualism and functionalism) and result in a clear scientific consensus about not only what consciousness is, but an understanding of what consciousness is like.  Along with that will be a near unanimous consensus that abstract systems, like the one on the right in the image, would not be considered to be conscious by anyone, with any reasonable intelligence.</div><div><br></div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jul 16, 2022 at 12:44 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Sat, Jul 16, 2022 at 11:23 AM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div>I agree with most everything you are saying, but you seem to be missing what I'm trying to focus on.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jul 16, 2022 at 11:28 AM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Sat, Jul 16, 2022 at 9:39 AM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><span style="color:rgb(80,0,80)">You said: "</span>Things like redness might be part of it, <span style="color:rgb(80,0,80)">" which says to me you would agree that, though the one on the right can "function" the same (as in can tell you the strawberry is red) you would not consider it to have the same kind of conscious knowledge as you, who knows the physical definition of redness, and would answer different than the one on the right, when asked: "What is redness like for you?"</span><br></div></blockquote><div><br></div><div>I would consider it to have functionally the same kind of conscious knowledge until presented with evidence to the contrary.</div></div></div></blockquote><div><img src="cid:ii_l5o6zm280" alt="3_functionally_equal_machines_tiny.png" width="320" height="118"><br></div><div><br></div><div>Surely you must admit that these 3 are all fundamentally different.</div></div></div></blockquote><div><br></div><div>You miss my point.  Are they different in a meaningful or interesting way, that there is reason to care about?  The answer seems to be "no".</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>IF redness could emerge from some set of 1s and 0s, or whatever "function" or "pattern" results in a redness experience, then you could do whatever that is, and engineer the one on the right, to use whatever that set of 1s and 0s are, which have the redness quality.  and you could invert that to get the one in the middle.  Then that one would answer the question of "what is redness like for you?" differently than the one, on the right.</div></div></div></blockquote><div><br></div><div>Actually they might not.  "What is redness like for you?" gets translated into language, at which point the exact same words might get used to define it even if they have different meanings, much like how the word "redness" itself has different meanings (per that illustration).</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>All we are missing is the dictionary which says it is X, in the brain, that has the redness quality you represent knowledge of red things with.</div></div></div></blockquote><div><br></div><div>Eh...that depends on how deep into the brain you mean.  At the retina, we absolutely know which cells react to red-frequency light.  Anything further in than that gets into how knowledge is represented in general, where "redness" does not necessarily exist as a discrete physical thing that is separable from everything else.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>If we could have 10,000 people sign a petion</div></div></div></blockquote><div><br></div><div>It would likely be ignored (beyond maybe invoking a few response statements, but instigating no serious effort), like almost all petitions are.</div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>