On 5/17/06, <b class="gmail_sendername">KAZ</b> <<a href="mailto:kazvorpal@yahoo.com">kazvorpal@yahoo.com</a>> wrote:<div><span class="gmail_quote"></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Actually,
this is untrue. It is akin to saying "if you're going to count to 100,
you need 100 items to do the counting on". No, for a computer to count
to 255 it only needs 8 bits. 24 bits, and it's counting into the
millions. Likewise, though more subtlely, you can track any level of
complexity with less than the actual components therein.</blockquote><div><br>
As I understand it, this isn't the case with ab initio quantum
mechanics calculations - that with QM, the calculation scales not as
the number of particles, or even as the number of pairwise
interactions, but as the number of possible configurations of the
system. (I didn't keep links to any online references, but I remember
Drexler explains this in 'Nanosystems'. However, I'm open to correction
if there are any physicists in the audience.)<br>
</div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">And, of course, you're assuming the simulation has to be purely deterministic. But you can also fudge the data.
</blockquote><div><br>
Absolutely. That in fact is what molecular modeling systems do; they
use polynomial-time heuristics - educated guesses - about how atoms
typically behave. Sometimes these give the right answer, sometimes they
don't. So yes, you can do this - but the result is, as I said, a
complement for laboratory work. Not a substitute.<br>
</div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">But, in reality, there is usually some other information, allowing a more rational analysis to be carried out.
</blockquote><div><br>
And that's exactly what I've been trying to do.<br>
</div></div>