<div dir="ltr"><div><div><div><div><div><br></div>Hi John,<br><br></div>You keep saying:  "You can't prove if something else is conscious."  But, does your left brain hemisphere not know, more than we know anything, not only that your right hemisphere is it conscious, but what it is qualitatively like.  And if that is possible, why are you assuming we can't do the same thing the corpus callosum is doing, between brains, not just between brain hemispheres?<br><br></div>You and Stathis keep talking about separating consciousness from behavior.<br><br></div>If we are talking about real glutamate vs zombie glutamate, you must agree that real glutamate can behave the way it does, because of it's intrinsic physical glutamate properties.  Where as, even though zombie glutamate can behave the same way, it can only do so if it has interpretation hardware that interprets that which, by definition does not have glutamate properties, as if it did.  So this proves it is possible to reproduce zombie glutamate (or zombie functional isomorph, if you must) behavior, without consciousness, um I mean without real glutamate intrinsic properties (hint: these are the same thing).  So I don't understand why both of you seem to be so completely missing the obvious?  It seems to me that both of you continue to completely ignore these simple obvious facts?<br><br></div>Brent Allsop<br><div><br><div><br><br><br><div><br><br><div><div><br></div></div></div></div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Feb 16, 2015 at 10:10 PM, Stathis Papaioannou <span dir="ltr"><<a href="mailto:stathisp@gmail.com" target="_blank">stathisp@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 17 February 2015 at 14:16, John Clark <<a href="mailto:johnkclark@gmail.com">johnkclark@gmail.com</a>> wrote:<br>
> On Mon, Feb 16, 2015  Stathis Papaioannou <<a href="mailto:stathisp@gmail.com">stathisp@gmail.com</a>> wrote:<br>
><br>
>><br>
>> > you would HAVE to behave normally, by definition. The artificial<br>
>> visual cortex receives input from the optic tracts, processes it, and<br>
>> sends output to association cortex and motor cortex. That is its<br>
>> design specification.<br>
><br>
><br>
> Then behavior would be the same. And I assume that, although functionally<br>
> identical with the same logical schematic, this artificial visual cortex<br>
> uses a different substrate such as electronics; otherwise the thought<br>
> experiment wouldn't be worth much.<br>
<br>
</span>Yes.<br>
<span class=""><br>
>> > That is its ONLY design specification: it is made by engineers who think<br>
>> > consciousness is bullshit. My point is that such a device would, as an<br>
>> > unintended side-effect, necessarily preserve consciousness.<br>
><br>
><br>
> I think so too, I would bet my life on it but I can't prove it. I can't<br>
> prove or disprove that blind people aren't conscious because it's the<br>
> biological visual cortex itself that produces consciousness. And I can't<br>
> prove or disprove that people lacking a left big toe are not conscious<br>
> because it is that toe that generates consciousness. I think both logical<br>
> possibilities are equally likely.<br>
><br>
>><br>
>> > If it were possible to make a brain implant that did all the mechanistic<br>
>> > stuff perfectly but lacked consciousness then you would end up with a being<br>
>> > that was blind<br>
><br>
><br>
> The being had a working visual cortex, how could it be blind?<br>
<br>
</span>Because the visual cortex is perfectly functional according to any<br>
test you do on it but lacks consciousness. It is made by engineers who<br>
think consciousness is bullshit.<br>
<span class=""><br>
>> > but behaved normally and thought it could see normally.<br>
><br>
><br>
> And the being was correct, it could see; it was probably conscious too but<br>
> it could certainty see.<br>
><br>
>><br>
>> > But that is absurd<br>
><br>
><br>
> I'm still not seeing what's absurd.<br>
<br>
</span>If it is possible to separate consciousness from function then it is<br>
possible to make a visual cortex that has normal function but lacks<br>
consciousness, so if you put it into your brain you would lack all<br>
visual perception but function normally and believe you could see<br>
normally. That would be absurd - I think you have agreed. Therefore,<br>
it is not possible to make a functional analogue of your visual cortex<br>
that lacks consciousness. The conscious comes as a necessary<br>
side-effect, whether you want it there or not.<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
--<br>
Stathis Papaioannou<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</div></div></blockquote></div><br></div>