<div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px">Stuart wrote:  I don't think that it is impossible that</span><br style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px"><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px">something could behave intelligently and not be conscious. Especially if</span><br style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px"><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px">it were purposefully designed that way.</span><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px">---------------------------------------</span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px">Trees react to their environment, sometimes releasing chemicals that tell nearby trees of a disease or insect invasion, clearly an altruistic action protecting their neighbors some of whom may be related.  Intelligent?  Maybe.  Conscious - not.</span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px"><br></span></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:12.8px">bill w</span></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Sat, May 27, 2017 at 2:43 PM, Stuart LaForge <span dir="ltr"><<a href="mailto:avant@sollegro.com" target="_blank">avant@sollegro.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">John Clark wrote:<br>
<br>
​> And after reading Darwin the obvious question to ask is "Evolution can't<br>
> directly detect consciousness any better than I can and yet I know for a<br>
> fact it managed to produce it at least once, how did it do that?". The only<br>
> answer is that consciousness is a unavoidable byproduct of intelligent<br>
> behavior.<br>
<br>
</span>I am certain that consciousness and intelligence are correlated. After all<br>
intelligence is a semantic property as well. But they might be seperable.<br>
Like the stroke victim who is aware of everything going on around him but<br>
lacks the motor control with which to express "intelligent behavior".<br>
<br>
If one can be conscious but unable to behave intelligently (like the<br>
aforementioned stroke victim), I don't think that it is impossible that<br>
something could behave intelligently and not be conscious. Especially if<br>
it were purposefully designed that way.<br>
<span class=""><br>
> I think "consciousness is the way data feels like when it is<br>
> being processed" is a brute fact so it is pointless to ask how or why.<br>
<br>
</span>If you think that fact holds down to the level of a single bit flipping<br>
its value, then you would belong to the "consciousness is trivial"<br>
school.<br>
<span class=""><br>
> The Turing Test has nothing to do with Turing Machines, the test is<br>
> ​ ​<br>
> agnostic as to how the subject manages to produce the observed behavior,<br>
> ​ ​<br>
> it's irrelevant.<br>
<br>
</span>Indeed, that is the way I first envisioned it using Russell's paradox.<br>
That would have been a stronger result that would have applied to all<br>
beings and not just Turing machines. But thank Zermello and Frankel for<br>
screwing up set theory so that Russell's paradox is now off limits and I<br>
am stuck with a result restricted to Turing machines.<br>
<span class=""><br>
> I don't understand, are you saying the<br>
> historical Turing test<br>
> will work for consciousness as well as intelligence, or are you proposing<br>
> some new test that could distinguish between a<br>
​> intelligent conscious being and a intelligent<br>
> non-conscious being?<br>
<br>
</span>No, I am saying that the Turing test won't be conclusive for either<br>
intelligence or consciousness with regard to Turing machines unless those<br>
are all or nothing properties of Turing machines. In other words, you run<br>
statistical analysis on the AI's behavior for consciousness, intelligence,<br>
or both and hope your AI doesn't get caught in an infinite loop.<br>
<span class=""><br>
<br>
If so then Evolution must have used that test too, but<br>
> then it must be based on behavior because<br>
​> behavior is​<br>
> what improves survival chances not consciousness, but if it's based on<br>
> behavior then it's just the standard vanilla<br>
> Turing Test.<br>
<br>
</span>What I am saying is that due to Rice's Theorem, any Turing-like test for<br>
any semantic property (consciousness, intelligence, etc.) applied to a<br>
Turing machine is reducible to the halting problem unless Turing machines<br>
all share that property or are unable to possess that property. Meaning<br>
that all you can rely upon is faith or behaviorial statistics and hope.<br>
<span class=""><br>
> Consciousness theories are a dime a dozen because unlike intelligence<br>
> theories there is no way to prove or disprove any of them, so I have no<br>
> doubt one of those theories could be used to make a consciousness test<br>
>fine tuned to make sure humans passed it but computers didn't (such as<br>
>consciousness theory#93,642: conscious beings must be squishy)<br>
<br>
</span>Well people who think that belong to the "consciousness is null" school.<br>
Unfortunately my theorem does not rule that out either.<br>
<div class="HOEnZb"><div class="h5">​<br>
Stuart LaForge<br>
 ​<br>
<br>
<br>
<br>
______________________________<wbr>_________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/<wbr>mailman/listinfo.cgi/extropy-<wbr>chat</a><br>
</div></div></blockquote></div><br></div>