<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">John, you have entirely missed the point.  I said the measurement would not tell you what consciousness is, but simply a way to measure it objectively.  Without that there is no hope of making consciousness a scientific entity.  If the measurements do not correlate with what we think of with common sense as consciousness, then we choose another measurement.  bill w</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Feb 8, 2020 at 3:31 PM John Clark via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sat, Feb 8, 2020 at 3:05 PM William Flynn Wallace via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:</span><br></div></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><span style="color:rgb(0,0,0);font-family:"comic sans ms",sans-serif"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Telling a person that intelligence is a score on an IQ test is very unsatisfactory, but that is what ODs do.  You could, perhaps, define consciousness by EEG tests, </span></blockquote><div dir="ltr" class="gmail_attr"><br></div><div dir="ltr" class="gmail_attr"><div class="gmail_default"><font face="arial, helvetica, sans-serif"></font><font size="4">Although very far from perfect you can at least intuitively see a relationship of some sort between intelligence and the ability to do well on an IQ test, but squiggly lines on a EEG plot and consciousness have no intuitive relationship whatsoever and so would make for a very poor definition, operationally or otherwise. Although it would certainly be far easier to make a machine that would produce satisfactory squiggles than to make a machine that consistently exhibits intelagent behavior, and so at least as the word is defined we'd have a "conscious" computer much sooner.  The only trouble is by defining the word in that way you would have leached out of it every last thing that made consciousness a desirable state to be in. I really really want to remain conscious, that is to say I don't want to die, I rather like doing well on IQ tests too, but I don't much care what sort of squiggly lines a EEG machine says my brain produces. If the machine said I wasn't conscious but my subjective qualia that only I have access to said I was I know which one I'd believe.</font><br><br><font size="4"> John K Clark</font></div></div>
</div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>