On Wed, Apr 24, 2013  Gordon <span dir="ltr"><<a href="mailto:gts_2000@yahoo.com" target="_blank">gts_2000@yahoo.com</a>></span> wrote:<br><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="im">> Intentionality, as I and most philosophers use the word, is in basic terms the ability to have mental content</div></blockquote><div><br>Then we know that other people must have intentionality because without mental representations they couldn't design a bridge that wouldn't fall down, and in the same way we know that computers must have internal representations of external reality or they couldn't solve physical problems.  <br>
</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"> > of which one is aware. <br></blockquote><div><br> Mental representations would be unusable if you didn't know you had them, and a file in a computer would be unusable to the machine if it didn't know it had it, if it didn't know where in its vast memory banks it was located.<br>
<br><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote">> Strictly speaking, I cannot prove that you have intentionality<br></blockquote><br>Yes you can by observing behavior. Internal representations of external physical systems are necessary to solve physical problems involving those systems, so if anyone or anything can solve those problems it MUST have those internal representations AND know where to find them.<br>
<br><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote">> we can also wear sunglasses to change our visual inputs. Are we supposed to think sunglasses are conscious? [...] My watch tells me the time accurately, but I'm pretty sure it has no idea what the time is.<br>
</blockquote><div><br>A lot of the arguments that the "electronics can never work as well as meat" gang offer take this form, X can do Y but "obviously" X isn't conscious like people. But exactly why is it obvious? Because in the examples given X can do only one thing. When your friend tells you the time you're pretty sure he knows what time it is because his behavior is far more complex than the watch and he can do more than one thing.<br>
</div><br><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote">> we cannot make identical digital copies of things that are not digital.<br></blockquote>
<div><br>But we can make copies of things involving matter or energy or spin or electrical charge and we can make copies of the finite integer number of neurons in the brain communicating with each other with a finite integer number of sodium and potassium ions. That doesn't sound like much of a restriction. <br>
</div><br><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote">> In principle, I think we can digitally sim a brain, even down to the molecular level. <br>
</blockquote><br>Yes, but that would be vast overkill.<br><br><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote">> I seriously doubt that my computer is anything more than a blind, unconscious machine. It might act intelligently but [...]<br>
</blockquote><div><br>I don't know where people get the silly idea that intelligence is easier to produce than consciousness. And there is no easier job in the world than being a consciousness theorist because your theories don't have to actually do anything, and there is no harder job than being a intelligence theorist because those ideas must do a hell of a lot.   <br>
</div><br><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote">> Someday a digital computer might pass the Turing test,</blockquote><div><br>And after seeing what Watson can do I think that day could come a lot sooner than a lot of people think.<br>
<br></div><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote"> > and we will have created weak AI. But strong (conscious, intentional) AI is a completely different challenge.<br>
</blockquote><div><br>Completely different?! It is really astonishing that well into the 21'st century there are still people who say they believe in Darwin's Theory of Evolution and even claim to understand it and yet can say something like that. Evolution produced Gordon Swobe  and Gordon Swobe is conscious; those 2 facts are absolutely positively 100% logically inconsistent with what you just said above.<br>
<br>I have been pointing this fact out for well over a decade but it seldom makes much of a effect; this should bring about a profound change in somebody's world-view but it never does, people either give a embarrassingly anemic retort or just shrug it off and continue to firmly believe 2 contradictory things, that Evolution is true and that consciousness and intelligent behavior are unrelated. Why? I'm not a psychiatrist but I think it's because people first decide that a computer can definitely never be conscious and only then go looking for evidence to support their prejudice. And a belief that is not based on logic can not be destroyed by it.  <br>
<br>  John K Clark      <br><br><br><br> </div><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br></div></div>