<div><br><div class="gmail_quote"><div>On Wed., 8 Mar. 2017 at 8:41 am, Adrian Tymes <<a href="mailto:atymes@gmail.com">atymes@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On Tue, Mar 7, 2017 at 1:23 PM, Stathis Papaioannou <<a href="mailto:stathisp@gmail.com" class="gmail_msg" target="_blank">stathisp@gmail.com</a>> wrote:<br class="gmail_msg">
> On Wed., 8 Mar. 2017 at 7:17 am, Adrian Tymes <<a href="mailto:atymes@gmail.com" class="gmail_msg" target="_blank">atymes@gmail.com</a>> wrote:<br class="gmail_msg">
>> I don't, unless and until any functional components can actually be built<br class="gmail_msg">
>> from them - at which point they stop being any sort of mysticism, so by<br class="gmail_msg">
>> definition that won't happen.<br class="gmail_msg">
><br class="gmail_msg">
> Yes: if consciousness were due to something other than or in addition to the<br class="gmail_msg">
> observable behaviour of brain components then that would allow for a<br class="gmail_msg">
> decoupling of mind from body.<br class="gmail_msg">
<br class="gmail_msg">
That brings up another problem: one would need a strict definition of<br class="gmail_msg">
"consciousness", such that anything complying with that definition<br class="gmail_msg">
would be judged conscious.</blockquote><div><br></div><div>We can actually do a lot without defining it except in vague operational terms, which makes the argument more robust. I know what it means to say that I'm conscious even if I can't explain it or convince others of it. If some aspect of my consciousness, or another entity's consciousness if they have it, were due to an intrinsic quality of a brain component which could not be duplicated by duplicating the observable behaviour of that component, then it would imply a decoupling of mind from body. If something were tweaked in your brain you might become blind, or start seeing fire breathing dragons, but out of your mouth would still come sounds at medicating to the rest of the world that everything looks just the same.</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"></blockquote><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Imagine a human chauvinist, who refused to agree that any machine<br class="gmail_msg">
could be conscious but was not willing to openly defend "only humans<br class="gmail_msg">
can be conscious" (perhaps in part to have to avoid defining "human",<br class="gmail_msg">
including whether humans who have suffered extreme lobotomy still<br class="gmail_msg">
qualify, whether someone who is sleeping counts as presently conscious<br class="gmail_msg">
or worth protecting due to expected near-term resumption of<br class="gmail_msg">
consciousness, what the line is between sleeping versus a persistent<br class="gmail_msg">
vegetative state, and so on).  For every definition offered, a<br class="gmail_msg">
transhumanist could then ask, "So if I built a machine that...then it<br class="gmail_msg">
would be conscious?  If not, why not?"<br class="gmail_msg">
_______________________________________________<br class="gmail_msg">
extropy-chat mailing list<br class="gmail_msg">
<a href="mailto:extropy-chat@lists.extropy.org" class="gmail_msg" target="_blank">extropy-chat@lists.extropy.org</a><br class="gmail_msg">
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" class="gmail_msg" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br class="gmail_msg">
</blockquote></div></div><div dir="ltr">-- <br></div><div data-smartmail="gmail_signature">Stathis Papaioannou</div>