<div dir="ltr"><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><span style="font-size:12pt;font-family:"Times New Roman",serif">Consciousness isn’t about
functionality or intelligence, it’s about physical qualities.  What is it like?  Is the physics I represent red with the same
as yours, or is it more like your greenness?  Intelligent computer systems are abstracted
away from physical qualities.  Any physical
property can represent a 1, but only if you have a dictionary interpretation
mechanism to get the one from that particular physical property.  We, on the other hand represent information directly
on physical qualities, like redness and greenness.  This is more efficient, since you don’t need
the abstraction layer to make it substrate independent.</span></p>

<p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><span style="font-size:12pt;font-family:"Times New Roman",serif"> </span></p>

<p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><span style="font-size:12pt;font-family:"Times New Roman",serif">Stathis, from what I hear from you,
you are saying that redness is not a physical quality and that greenness is not
something physically different.  Is that
the really case?</span></p></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Dec 19, 2019 at 7:38 AM John Clark via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Wed, Dec 18, 2019 at 7:33 PM William Flynn Wallace via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:</span><br></div></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>What would you like to see done in intelligence research?</div></div></blockquote><div><br></div><div><div class="gmail_default"><font face="arial, helvetica, sans-serif"></font><font size="4">I'm not complaining, thanks to the Free Market there is already plenty of intelligence research done in Silicon Valley and elsewhere because doing so has a tendency to make people ridiculously rich so it needs no encouragement by me. I'm just saying that those who like to develop intricate consciousness theories would do better if they tried to figure out better ways to make something intelligent instead because doing so just might make them a billionaire and if they're successful at producing intelligence they'll get consciousness automatically as a free bonus.</font></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4"><br></font></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4"> John K Clark</font></div></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>