<html><head></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><div><div>On Jan 17, 2011, at 12:14 PM, Stefano Vaj wrote:</div><div><br></div><div><blockquote type="cite"><blockquote type="cite">Me:</blockquote></blockquote></div><blockquote type="cite"><div><blockquote type="cite"> The situation is made even more grotesque when the slave in question is astronomically more intelligent than its master.</blockquote><br>A slave? A machine, in fact. </div></blockquote><div><br></div>Apparently you think that awarding the grand title of "person" should be unrelated to intelligence or other things of merit, and it should be entirely dependent on whether the entity in question is made of meat or semiconductors. I disagree. <br><div><br></div><blockquote type="cite"><div>one cannot wish at the same time demand an emulation able to show the appropriate degree of<br>"unfriendliness" to pass a Turing test, and then complain that it is not friendly enough.<br></div></blockquote><div><br></div><div>I have no idea what that means.</div><blockquote type="cite"><div><br>given Wolfram's Principle of Computation Equivalence, which I have always found pretty persuasive, there are not things more intelligent than others once the very low level of complexity required for exhibiting universal computing features is reached. There are just things that execute different programs with different performances.</div></blockquote><div><br></div>The second program I ever wrote in my life (after one for the Mandelbrot set) was for the Game of Life. It is known that the Game of Life can simulate a Universal Turing Machine, so my childish little program had the potential to perform any calculation in the universe, even a calculation performed by a mighty Jupiter Brain that would produce a Singularity. Unfortunately my silly little program did not live up to its potential. </div><div><i><span class="Apple-style-span" style="font-style: normal;"><br></span></i></div><div><blockquote type="cite"><div>friendliness and unfriendliness (as "conscience", "identity", etc.) would remain mere projections of the observer - "my car is angry with me today, it does not want to start"<br></div></blockquote><div><br></div><div>Is it also a "mere projection" on your part when a fellow human being seems to be angry with you?</div><blockquote type="cite"><div><font class="Apple-style-span" color="#000000"><br></font>In any event, to be recognised as "persons", or as "intelligent" entities</div></blockquote><div><br></div>I would humbly submit that it is of little importance if you consider a super intelligent computer to be a person or not, the important matter is if the super intelligent computer considers you to be a person or not.<div><br></div><blockquote type="cite"><div>Even if the hardware is a mere Chinese Room.<br></div></blockquote><div><br></div><div>Ah the good old Chinese Room, perhaps the stupidest thought experiment ever conceived of by the mind of man.</div><div><br></div><div> John K Clark</div><div><br></div><br><blockquote type="cite"><div><br></div></blockquote></div></body></html>