<br>
<br>
On 1 February 2015 at 08:41, Brent Allsop <<a href="javascript:;" onclick="_e(event, 'cvml', 'brent.allsop@canonizer.com')">brent.allsop@canonizer.com</a>> wrote:<br>
><br>
> Hi Stathis,<br>
><br>
> It's great to hear from you.  And the target audience of this paper, is<br>
> intelligent people like you, so I really need help understanding how best to<br>
> comunicate to people with this POV.  So, thank you for reading, and for<br>
> jumping in here.<br>
><br>
> You are using untestable not well defined metaphysical terms when you talk<br>
> about "consciousness" like this:  "this will never be able to tell you if<br>
> the subject being studied really is conscious".<br>
><br>
> When you use the term "conscious" you are talking about composit qualia, or<br>
> all of what conscoiusness is, as something that is not easily completely<br>
> sharable in it's entirety.  And you are providing no way to falsify any such<br>
> assertions.   All I hear you saying is that consciousness is not<br>
> approachable via science.<br>
<br>
Aspects of consciousness, or if you prefer of qualia, can certainly be investigated scientifically, and a large part of neuroscience and psychology is devoted to doing just this. However, it is impossible to investigate scientifically if someone actually has qualia and what those qualia are like.<br>
<br>
> What I am trying to say, is that you can break composite "consciousness" and<br>
> composite qualia down to elemental qualities, like redness and greenness.<br>
> And that there is some kind of binding mechanism that binds them together,<br>
> so that you can be aware of redness and greenness, at the same time, and<br>
> know how qualitatively different they are.  Like when a painter makes a<br>
> composit painting, using elemental color qualities, I am saying that you can<br>
> break conscoiusness down to effable, detectable, elemental qualities.<br>
<br>
I think you can break down consciousness in this way, but I don't think you can directly detect qualia.<br>
<br>
> On 1/31/2015 7:37 AM, Stathis Papaioannou wrote:<br>
><br>
><br>
> >Suppose, for example, you hypothesise that CMOS sensors in digital cameras<br>
> > have colour qualia. You could show experimentally the necessary and<br>
> > sufficient conditions for certain colour outputs, but how would this help<br>
> > you understand what, if anything, the sensor was experiencing? If you tried<br>
> > connecting it to your own brain and saw nothing, how would you know if that<br>
> > was because the sensor lacked qualia or because it doesn't interface<br>
> > properly with your brain?<br>
><br>
><br>
> You are thinking about this at the wrong level.  CMOS systems can only do<br>
> intelligent operations if they have hardware that is interpreting that which<br>
> does not have consistent ones and zeros, as if it did.  And it certainly<br>
> doesn't have anything like an elemental redness quality at that abstractly<br>
> operating, interpreted from it's diverse intrinsic physical qualities level.<br>
><br>
> But, there is the possibility, that some stuff like CMOS, does have an<br>
> intrinsic qualitative nature, that can be bound up with other qualities the<br>
> way our brain binds things with redness and greenness up.  And interpreting<br>
> the way CMOS acts as only colorless ones and zeros, is being blind to the<br>
> qualitative nature that it could have.  Zombie information can represent<br>
> everything about the qualitative nature of CMOS, but you can only know what<br>
> the qualitative nature of the same is, if you interpenetrate, correctly,<br>
> what you are detecting, not some interpreted pieces of zombie information we<br>
> think of it as having.<br><br>If you claim to be able to detect qualia then what test do you propose to use to decide whether CMOS sensors have "an intrinsic qualitative nature" or not?<br><br><br>[SP]<br><div>
> The other point I would like to make is that (it seems to me) you have<br>
> misunderstood the neural substitution thought experiment you describe near<br>
> the end of the paper. Suppose glutamate is responsible for redness qualia,<br>
> and you replace the glutamate with an analogue that functions just like<br>
> glutamate in every observable way, except it lacks the qualia. The subject<br>
> will then accurately describe red objects, say he sees red, and honestly<br>
> believe that he sees red. How would you show that he does not actually see<br>
> red? How would you know that your own red qualia were not eliminated last<br>
> night while you slept by installing such a mechanism?<br>
><br>
><br>
> No, you know I fully understand this argument.  Chalmers points out multiple<br>
> possible ways science could demonstrate what happens, subjectively, when you<br>
> do this neural substitution.  You only consider the view that it will be<br>
> possible to do it, just as described, so there is a conundrum.  So if your<br>
> interpretation, leads to such contradictions, then you are going down the<br>
> wrong path.  Why do you refuse to consider any other possibility?<br>
><br>
> Chalmers points out there is a vanashing qualia and fading qualia options<br>
> you are not considering.  I don't like the way he describes these, because<br>
> they are very metaphysical and non testable predictions about what is<br>
> happening.  So, if you assume a 3 color world, like that described in the<br>
> paper, the theory makes testable predictions about how the qualitatively<br>
> consciousness scientists will discover, when they do the neuro substitution<br>
> experiment.  Nothing they present to the binding system will ever have a<br>
> redness quality, except that which really has redness, so it will be a kind<br>
> of vanishing qualia.</div><div><br></div><div>It's not problematic imagining that the qualia would vanish if the substitution were made with parts lacking the redness quality. What is problematic - and the entire point of the experiment - is that the qualia would vanish **without either the subject or the experimenters noticing that anything had changed**.<span></span></div><div><br>
> The critical part of the neuro substitution experiment, is adding in the<br>
> hardware interpereters, for every piece of hardware replacing the knowledge<br>
> being represented with qualitative properties.  Sure, you know how to<br>
> interpret what the zombie knowledge represents, it can be thought of as<br>
> behaving the same way.  And, once you replace the binding mechanism, and all<br>
> that does have true qualitative nature, it will be possible to think of it<br>
> as being the same thing.  But, by definition, the zombie information will<br>
> not have redness, it can only be interpreted as and thought of, as if it<br>
> does.<br>
><br>
> And sure, this is a very simplistic theory.  But the prediction is, that<br>
> this is just an example of how to cross the qualitative knowledge boundary<br>
> in one possible world.  And the prediction is, that a simple variation on<br>
> this theory will make it possible to bridge this knowledge gap in the real<br>
> world.<br>
><br>
> Does any of that help?<br>
><br>
> Brent Allsop<br>
><br>
><br>
><br>
><br>
> On 1/31/2015 7:37 AM, Stathis Papaioannou wrote:<br>
><br>
><br>
><br>
> On Saturday, 31 January 2015, Brent Allsop <<a href="javascript:;" onclick="_e(event, 'cvml', 'brent.allsop@canonizer.com')">brent.allsop@canonizer.com</a>><br>
> wrote:<br>
>><br>
>><br>
>> On 1/30/2015 7:43 AM, William Flynn Wallace wrote:<br>
>><br>
>> One side of this debate says that subjective experiences are metaphysical.<br>
>> So I have two comments:<br>
>><br>
>> 1 - How does one go about proving the existence of something metaphysical?<br>
>> By proving that physical causes don't exist for that experience?  Isn't<br>
>> that trying to prove a negative?<br>
>><br>
>> 2 - Since nothing has ever been shown to be metaphysical (no way to<br>
>> measure it), why would one ever start from that as an assumption?  Why, in<br>
>> fact, believe in anything at all metaphysical, in the most literal sense?<br>
>> Demons and angels?  Ghosts?  (It does seem that many people will believe in<br>
>> these things rather than what science says.  If anyone has any doubt that we<br>
>> are an intellectually flawed species, just look at that fact.)<br>
>><br>
>> In short, there seems to me to be no way to establish that metaphysical<br>
>> causes exists for anything.  At least, no scientific way.  Playing with<br>
>> words, thought experiments, and just sheer sophistry don't do the job.<br>
>><br>
>><br>
>> Either you didn't read the paper entitled "Detecting Qualia"<br>
>> (<a href="https://docs.google.com/document/d/1Vxfbgfm8XIqkmC5Vus7wBb982JMOA8XMrTZQ4smkiyI/edit?usp=sharing" target="_blank">https://docs.google.com/document/d/1Vxfbgfm8XIqkmC5Vus7wBb982JMOA8XMrTZQ4smkiyI/edit?usp=sharing</a>)<br>
>> or you didn't understand any of it.   You must have at least read the title:<br>
>> "Detecting Qualia", but evidently you refuse to understand what most people<br>
>> understand such to mean, as proof by you asserting that there is "no way to<br>
>> measure it".  Since you don't seem to get it, I guess I'll have to explain<br>
>> it to you:  Detecting, is the same as measuring, and if it is detectable, it<br>
>> is physical, and experimentally demonstrably to all to be physical, just<br>
>> like all physics.<br>
>><br>
>> Brent Allsop<br>
><br>
><br>
> Dear Brent,<br>
><br>
> I've read the paper. Maybe I haven't understood it properly, but it seems to<br>
> me that the main thing you have in mind when talking about "effing the<br>
> ineffable" is the neural correlates of consciousness, and this will never be<br>
> able to tell you if the subject being studied really is conscious, let alone<br>
> what the actual conscious experience is like.<br>
><br>
> Suppose, for example, you hypothesise that CMOS sensors in digital cameras<br>
> have colour qualia. You could show experimentally the necessary and<br>
> sufficient conditions for certain colour outputs, but how would this help<br>
> you understand what, if anything, the sensor was experiencing? If you tried<br>
> connecting it to your own brain and saw nothing, how would you know if that<br>
> was because the sensor lacked qualia or because it doesn't interface<br>
> properly with your brain?<br>
><br>
> The other point I would like to make is that (it seems to me) you have<br>
> misunderstood the neural substitution thought experiment you describe near<br>
> the end of the paper. Suppose glutamate is responsible for redness qualia,<br>
> and you replace the glutamate with an analogue that functions just like<br>
> glutamate in every observable way, except it lacks the qualia. The subject<br>
> will then accurately describe red objects, say he sees red, and honestly<br>
> believe that he sees red. How would you show that he does not actually see<br>
> red? How would you know that your own red qualia were not eliminated last<br>
> night while you slept by installing such a mechanism?<br>
><br>
><br>
><br>
><br>
> _______________________________________________<br>
> extropy-chat mailing list<br>
> <a href="javascript:;" onclick="_e(event, 'cvml', 'extropy-chat@lists.extropy.org')">extropy-chat@lists.extropy.org</a><br>
> <a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
><br>
<br>
<br>
<br>
--<br>
Stathis Papaioannou<br>
</div><br><br>-- <br>Stathis Papaioannou<br>