On 12/31/05, <b class="gmail_sendername">Jeff Medina</b> <<a href="mailto:analyticphilosophy@gmail.com">analyticphilosophy@gmail.com</a>> wrote:<div><span class="gmail_quote"></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Your assessment of how much computation counts as impractical is based<br>on how much computation goes on in our observed world, posited here as<br>a potential simulation. If we *are* in a simulation, then we have no<br>idea what the limits of computation are in the "parent world", nor how
<br>much computation is considered an impractically large amount.<br><br>Which is not to say we're in one; just that any argument that starts<br>from the quoted premise is not sound, and hence not grounds for<br>dismissing or discounting the possibility.
<br>
</blockquote></div><br>
*nods* We can't dismiss the possibility - that's why I said the argument I gave didn't amount to ironclad proof.<br>
<br>
But it's based on a bit more than the limits of computation under our
laws of physics. Detection of ground-level universe simulation based on
a slight imperfection such as anisotropy, would require that the
computer has just barely enough power for the job. The amount of power
required is on the order of the exponent of the number of particles in
the visible universe, something like 10^10^89 (including cosmic
background photons and neutrinos); that's a small target to hit in the
range 0 to infinity - granted we don't have a good model for
distribution of computers by processing power throughout the
multiverse, but I'll suggest it seems a little unlikely that the amount
available would be just that much.<br>
<br>
- Russell<br>