<div dir="ltr"><br><div>Hi Dylan,</div><div>Thanks for jumping in.  Nice to have some additional input.</div><div>The prediction is that the brains of people that are red/green color blind simply use the same quale to represent both red and green.  As John would point out, you don't have enough diversity in your knowledge to represent both red and green knowledge, making you blind to what the rest of us have sufficient physical diversity to represent.</div><div><br></div><div>If you remain convinced in the validity of the neural substitution argument (you must think the 3rd robot has qualia) then what is red qualitatively like for that 3rd robot that represent all things red with only the abstract word "red"?</div><div><br></div><div>I would bet you also feel the same way about robot #3 as John feels when he says: "<span style="font-family:arial,helvetica,sans-serif;font-size:large">I can't say anything about Robot #3 because it makes no sense to me."</span></div><div><div>This just proves that you don't yet get it.</div><div><br></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Feb 13, 2020 at 11:09 AM Dylan Distasio via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Your exact assertions are the same ones I immediately think of, and I'll be honest, I still don't grok Brent's arguments despite all the effort expended.   Maybe I haven't spent enough time on it yet, but I still don't buy this argument of qualia being at the neurotransmitter level as physical, irreducible qualities (apologies if I am misrepresenting the argument).<div><br></div><div>I'm red/green color blind due to differences in my rods/cones in my eyes compared to others.  Although I clearly know some shades of red/green (i.e. have no trouble with stop lights regardless of placement of the red/green) , but there are some shades that look indistinguishable to me despite the fact I know other people can distinguish them.   </div><div><br></div><div>What does this say about the qualia for red and green?  I assume the argument is going to be that the processing is downstream of vision and I still have true red/green qualia based on neurotransmitter interactions.</div><div><br></div><div>I remain convinced that if you were able to swap out every single neuron with a true approximation of the signalling going on in physical wetware (let's pretend there is a mechanical neuron that properly accepts signalling from various neurotransmitters and passes those signals on via some means (chemical or electrical) to other neurons original or replaced) that not only would the person be unaware of it happening one neuron at a time, but at the end of the process, they would not be any different than they were other than operating on a different substrate.</div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Feb 13, 2020 at 12:15 PM Will Steinberg via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Things are NOT colors.  A strawberry has nothing to do with the red quale, it simply reflects 680 nm light.  <div><br></div><div>680 nm light is NOT a color.  It is interpreted as a red quale when it interfaces with the eyes and brain.</div><div><br></div><div>Some entities can't sense that light.  Some might see something different.  Some might be moving very fast and experience a doppler effect and not even see the light as 680 nm.  Not only is everything relative, but everything is VERY relative because qualia are not standalone, they only happen when information enters a system.  They depend on both.  </div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Feb 13, 2020 at 10:12 AM John Clark via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Wed, Feb 12, 2020 at 9:31 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:</span><br></div></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><div dir="ltr" class="gmail_attr"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>you guys are all completely qualia blind.</i></blockquote><div><br></div><div class="gmail_default"><font face="arial, helvetica, sans-serif"></font><font size="4">You have 2 possibilities to consider:<br>1) Solipsism is true, we are zombies and so we really are qualia blind and you are the only conscious being in the universe.<br>2) You are qualia delusional, that is to say your philosophical ideas are self contradictory.  </font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span><i>Not only do you not know the physical color anything, you don't care.</i></blockquote><div><br></div><font size="4">I am unable to care much until you explain exactly (or at least approximately) what you mean by "physical color". And if it doesn't involve the subjective ability to notice a change in the wavelength of electromagnetic radiation and the ability to objectively act on that differentiation then whatever you mean by it just isn't very interesting. I mean... if it doesn't effect anything objectively and it doesn't effect anything subjectively either then I just can't work up much enthusiasm about studying it.</font><br></div><div dir="ltr"><div><br></div></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span><i>Having this dictionary will tell us what color things are,</i></div></div></div></blockquote><div><br></div><div class="gmail_default"><font face="arial, helvetica, sans-serif"></font><font size="4">You keep trying to find the nature of things at the most fundamental level and yet for some strange reason you keep talking about dictionaries. A dictionary is a list of definitions of words. Every definition is itself made of words, every one of those words has its own definition also made of words, and the infinite loop continues. You're not going to obtain philosophical insight by reading a dictionary. And if there isn't an infinite chain of "why" questions and there really is one correct answer to the consciousness question at the most fundamental level then at some point in the chain of questions you are going to say "I see a termination because a miracle occurs here" or if you prefer "a brute fact occurs here". After all, an effect without a cause does not violate any law of logic. Fortunately with data processing the miracle is as small as possible because changes don't get simpler than changing on to off.   </font></div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span><i>where we connect our brains with 3 millions neurons, so we can directly experience the actual physical colors in other's brains, the same way the physical knowledge in our left hemisphere is directly computationally bound to the physical knowledge in our right. </i></div></div></div></blockquote><div><br></div><div class="gmail_default"><font face="arial, helvetica, sans-serif"></font><font size="4">We know with experiments with people that when those 3 million neurons connecting the brain's hemispheres  are cut the individual who received the surgery starts acting in ways that are different from the way he acted before the surgery.  And both hemispheres are capable of acting independently of the other, and that behavior is different from each other, and neither matches the behavior of the pre-surgery individual. And it can be shown that one hemisphere can know things that the other does not. And so I would maintain neither hemisphere knows what it's like to be the other, and neither hemisphere knows what it's like to have 2 working hemispheres connected by 3 million information carrying cables, and the pre-surgery individual doesn't know what it will be like to have a split brain in his head.</font></div><div class="gmail_default"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>we aren't jsut some kind of brain in a vat.</i></div></div></blockquote><div><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">I don't know why you keep saying that as if it's something of fundamental importance, skulls and vats are just slightly different types of containers for brains. </font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span><i>And it's up to the experimentalists. </i></div></div></div></blockquote><div><br></div><div class="gmail_default"><font face="arial, helvetica, sans-serif"></font><font size="4">Exactly, and just like Evolution itself experimentalists can see intelligent behavior but they can't see qualia or consciousness. Nevertheless Evolution managed to produce consciousness at least once (in me) and probably many billions of times, so I conclude consciousness must be a byproduct of something that Evolution can see, something like intelligent behavior. And experimentalists can form some conclusions about qualia and consciousness, but only if they make some assumptions that, although my hunch is are largely correct, they can't prove and will never be able to prove.</font></div><div class="gmail_default"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>the current popular consensus that "<font color="#500050">The supervening qualities are the result of the ones and zeroes"</font></i></div></div></div></blockquote><div><br></div><font size="4">Ones and zeroes are pure abstractions but information is physical and so is the difference between a electrical circuit that is open and a electrical circuit that is closed. So I guess i believe in half of what you call the "popular consensus" (although in my experience it's not all that popular).  Supervenience is just a two dollar word for "depends on" and I think that both intelligent behavior and consciousness is the result of not ones and zeros but of open/closed or on/off; you can represent one and zero with on and off if you want but you don't have to, if you're working in Boolean logic and not arithmetic you can have them represent true or false or any other binary quality you like.</font><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>I'll bet any amount of money, at any odds, that functionalists camps will be the first to be experimentally falsified, once experimentalists stop being qualia blind.<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span>Anyone care to put any money, where their mouth is? </i></div></div></div></blockquote><div><br></div><div class="gmail_default"><font face="arial, helvetica, sans-serif"></font><font size="4">I've been known to make small bets on scientific matters before (and to be honest I usually ended up losing money) but I refuse to make a bet if I don't understand exactly, or even approximately, what the bet actually is.</font></div><div class="gmail_default"><font size="4"><br></font></div><div class="gmail_default"><font size="4"> John K Clark</font></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>