<html><head></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><div><div>Since my last post Gordon Swobe has posted 4 times.</div><div><br></div><blockquote type="cite"><div>On computer B the simulated brain simulates the processing of simulated thoughts</div></blockquote><div><br></div>So now we have a simulation of a simulation of a simulation, aren't Swobe's thought experiments grand, he always makes things so crystal clear. <br><div><br></div><blockquote type="cite"><div>but here you do object when I tell you the simulated brain doesn't really think. Here you want to tell me the simulated brain really does think real thoughts.<br></div></blockquote><div><br></div><div>Simulated thoughts differ from real thoughts in exactly the same way simulated arithmetic differs from real arithmetic, not at all.</div><div><br></div><div></div><blockquote type="cite"><div>What's a simulated thought, you ask? Here's a famous one that I've mentioned before:<br>print "Hello World"<br>It doesn't get any better than that</div></blockquote><div><br></div>That's what I thought and if that's the best example Swobe can come up with then the concept is empty.<br><div><br></div><div></div><blockquote type="cite"><div>it [a computer] should really think real conscious thoughts like you and me. </div></blockquote><div><br></div>If Swobe was consistent and played by his own rules he would ascribe consciousness only to himself not to other people, but of course consistency is not his strong suit. <br><div><br></div><blockquote type="cite"><div>More precisely, why do you classify "thoughts" in a different category than you do "blood" and "food"</div></blockquote><div><br></div>What a incredibly stupid question! If thoughts do not belong in a separate category from blood or food then what the hell is the point in having categories?<br><div><br></div><blockquote type="cite"><div>you have adopted a dualistic world-view in which mental phenomena fall into a different category than do ordinary material entities<br></div></blockquote><div><br></div>Well of course I have as would any sane person.</div><div><br></div><div></div><blockquote type="cite"><div>I can write a program today that will make a computer act conscious to a limited degree.</div></blockquote><div><br></div>I'm sure he can, but Swobe would find it much more difficult to write a program that was intelligent even to a limited degree, he would find that consciousness is easy but intelligence is hard just as Evolution did. <div><br></div><div><blockquote type="cite">With enough knowledge and resources I could write one that fooled you into thinking it had consciousness -- that caused a computer or robot to behave in such a way that it passed the Turing test.</blockquote><br></div><div>Swobe is saying that if he knew how to make an AI then he could make an AI if he had a lot of money. I could be wrong but I believe there may be others who could make a similar claim.</div><div><br></div><div></div><blockquote type="cite"><div>I don't understand why you should even question the separability of behavior and consciousness.</div></blockquote><div><br></div>I'm not surprised Swobe doesn't understand, there is much in the natural world that is baffling if one is totally ignorant of Darwin's Theory of Evolution.<div><br></div><div> John K Clark<br><div><br></div><div><br></div><div><br></div><div><br></div><br><div><br><div><br></div><div><br></div></div></div></body></html>