<br><br><div><span class="gmail_quote">On 4/5/07, <b class="gmail_sendername">Jef Allbright</b> <<a href="mailto:jef@jefallbright.net">jef@jefallbright.net</a>> wrote:<br><br></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
>  I was referring to certain philosophical arguments, such as John Searle's<br>> Chinese room, which is wrong for philosophical reasons, not because of the<br>> undoubted practical difficulties it would pose. Engineering and philosophy
<br>> are not the same discipline.<br><br>I don't understand your reasoning here, since Searle's Chinese Room<br>doesn't involve "extremely improbable things."  It's wrong for quite<br>different reasons.
<br><br>I do understand that there's a binary distinction between "slightly<br>possible" and "impossible", but that doesn't seem to apply here.</blockquote><div><br>Eugen argues that you can't simulate a brain by hand; Frank Tipler in "The Physics of Immortality" calculates that the energy requirements alone would forbid such a thing, at least in real time. But, as I think you see, that misses the point of the argument.
<br><br>Extreme difficulty despite purposeful effort is a different situation to extreme improbability given random processes. An example of the latter would be a Turing-equivalent machine implementing my brain being realised by cosmic dust clouds. It's far from clear that this could never happen (what if the universe is very large, or long-lived? what if there are multiple universes? what about the fact that there are multiple different abstract machines implementing a particular computation, each multiply realisable?), but even if it could be shown that it was as close to impossible as doesn't matter, that doesn't invalidate it as a thought experiment which says interesting things about functionalism and personal identity.
<br></div><br></div>Stathis Papaioannou<br>