<div class="gmail_quote">On Mon, Jan 31, 2011 at 1:08 PM, Kelly Anderson <span dir="ltr"><<a href="mailto:kellycoinguy@gmail.com">kellycoinguy@gmail.com</a>></span> wrote:<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

<div class="im">
<br>
</div>The strongest Turing test is when someone who knows a lot about<br>
natural language processing and it's weaknesses can't distinguish over<br>
a long period of time the difference between a number of humans, and a<br>
number of independently trained Turing computers.<br></blockquote><div><br></div><div>No, language processing is only one aspect of intelligence. The strongest Turing test would also measure the ability to learn, to learn from past experiences, to plan, to solve problems...all of the things the Wikipedia definition mentions, and maybe more. </div>

<div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">So perhaps I suggest a new test. If a computer is smart enough to get<br>
admitted into Brigham Young University, then it has passed the<br>
Anderson Test of artificial intelligence.</blockquote><div><br></div><div>You mean achieve an SAT score sufficient to get into BYU? Or do you mean that it has to go through school or take a GED, fill out an application to BYU, etc. like a human would have to do?</div>

<div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"> Is that harder or easier than the Turing test?</blockquote><div><br></div><div>Depends on the Turing test, I'd say.</div>

<div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"> How about smart enough to graduate with a BS from BYU?<br></blockquote><div><br></div><div>How about it? It'd be an impressive achievement. </div>

<div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Another test... suppose that I subscribed an artificial intelligence<br>
program to this list. How long would it take for you to figure out<br>
that it wasn't human? That's a bit easier, since you don't have to do<br>
the processing in real time as with a chat program.<br></blockquote><div><br></div><div>Depends how active it is, what it writes, and whether anyone is clued to the fact that there's a bot on the list. A Watson-like bot that answers questions occasionally could be pretty convincing. But it'd fall apart if anyone tried to engage it in a discussion.</div>

<div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div class="im">I suppose that's just another emergent aspect of the human brain.</div>
There seems to be a supposition by some (not me) that to be<br>
intelligent, consciousness is a prerequisite.<br></blockquote><div><br></div><div>OK, then let's leave it out for now because I don't think it's necessary, either. </div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

That's the difference between taking a picture, and telling you what<br>
is in the picture. HUGE difference... this is not a "little" more<br>
sophisticated.<br></blockquote><div><br></div><div>No, parsing a sentence into parts of speech is not hugely sophisticated.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">


<div class="im">Once again, we run into another definition issue. What does it mean to</div>
"understand"?</blockquote><div><br></div><div><a href="http://en.wikipedia.org/wiki/Understanding">http://en.wikipedia.org/wiki/Understanding</a></div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

 In my mind, when I understand something, I am<br>
consciously aware that I have mastery of a fact. This presupposes<br>
consciousness. So is there some weaker form of "understanding" that is<br>
acceptable without consciousness?</blockquote><div><br></div><div>It's not necessarily weaker to leave consciousness out of.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

 And if that form is such that I can<br>
use it for future computation, to say answer a question, then Watson<br>
does understand it. Yes. So by some definitions of "understand" yes,<br>
Watson understands the text it has read.<br></blockquote><div><br></div><div> Granted, at a trivial level Watson could be said to understand the data it's incorporated. But it doesn't have human-level understanding of it.</div>

<div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div class="im">Ok, my bad. I got sloppy in my wording here. The "knows" is in quotes</div>
because when I "know" something, I am consciously aware of my<br>
knowledge of it. When a computer "knows" something, that is a lesser<br>
form of "knowing". If you say Watson knows that 'Sunflowers' was<br>
painted by 'Van Gogh', then on that level of knowing, Watson does know<br>
things. It just doesn't know that it knows it in the sense of<br>
conscious knowing. Maybe this still doesn't make total sense, this is<br>
hard stuff to define and talk intelligently about.</blockquote><div><br></div><div>Just leave consciousness out of it. It's irrelevant.</div><div><br></div><div>-Dave</div><div><br></div></div>