<div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Sep 19, 2020, 2:30 PM Dan TheBookMan via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"> millisecond or two, no? And<br>
how from the inside would you know processing power was reaching its<br>
limit? You might come up against a wall if you were running a<br>
simulation -- adding more complexity into the simulation you're<br>
presumably part of. But would that tell you you're in a maxxed out<br>
simulation as opposed to telling you that your technology isn't<br>
advanced enough (imagine running today's smoke simulation models on<br>
1940s computers) or that there really are physical (non-simulation<br>
ones) limits on what you can simulate?<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">In our own simulations, we might notice that clocks skip a moment when the lagged simulation is caught up to the clock at the hardware level. </div><div dir="auto"><br></div><div dir="auto">Awareness of skips might depend on memory that is also prone to manipulation.  Maybe you trust what you believe is "real" experience or maybe you accept what the "error corrected" world tells you was a subjective observation mistake.</div><div dir="auto"><br></div><div dir="auto">I don't have words to articulate how I understand the multiple not-yet-too-divergent alternatives to 'now' - but I imagine the way we're using quantum computing to search certain classes of solution space is exploiting a lower-level of the universal computing hardware as an efficiency boost to all the alternates simultaneously. </div><div dir="auto"><br></div><div dir="auto">Some computations are cached (or memo-ized) around a context (typically some "key") so is it possible that much of what we consider deterministic is also an efficiency boost to retrieve already- computed results?</div><div dir="auto"><br></div><div dir="auto">I also imagine the complexity associated with simulating every particle of gas might be very precisely accurate... but most of the usage of predictive power to approximate collective behavior of the gas is done with a few macro parameters in a formula in which we so confidently refer to as "gas laws."   So if I were to bet on alien computing optimizations,  I'd guess particle simulations are run in one container only until a good-enough formula is found to predict next states of the simulation within some acceptable tradeoff between fidelity and resources.</div><div dir="auto"><br></div><div dir="auto">Now I want to ask if we're experiencing the full rendering or the optimized shortcuts?</div><div dir="auto">(.bmp vs .jpg, .flacc vs .mp3, etc.)</div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"></blockquote></div></div></div>