<html><body><div style="color:#000; background-color:#fff; font-family:garamond, new york, times, serif;font-size:18pt"><div><span></span></div><div>It would seem that the need for exponentially growing </div><div>overhead to correct for noise introduces an even larger</div><div>exponentially growing overhead to watch for potential</div><div>virus-like information [coded in the form of white noise?] </div><div>whose purpose might be nothing more than to introduce</div><div>factors generating more noise in the system.</div><div><br></div><div>In other words exponential susceptibility to noise also</div><div>generates an even larger exponential susceptibility to</div><div>sabotage exploiting that exponential susceptibility to </div><div>noise.  Not to mention accidentally evolving or introduced</div><div>code which might cause this type of issue.</div><div><br></div><div>If you thought computer viruses were an issue now</div><div>wait
 until the noise correction methodology itself can</div><div>be targeted.</div><div><br></div><div>Exponentially long codes taking advantage of large </div><div>capabilities are also a source of exponential susceptibility.</div><div><br></div><div>It all goes back to the logic of castles vs cannon balls.</div><div><br></div><div><a href="http://www.historylearningsite.co.uk/end_of_castles.htm">http://www.historylearningsite.co.uk/end_of_castles.htm</a></div><div><br></div><div>How large and defensible can a system grow before </div><div>countermeasures evolve to overwhelm the advantages</div><div>size creates?</div><div><br></div><div>In our case what is the optimal size/type of intelligence before</div><div>it is undone by internal and/or external factors.</div><div><br></div><div>Dennis May</div><div><br></div>  <div style="font-family: garamond, new york, times, serif; font-size: 18pt;"> <div style="font-family: times new
 roman, new york, times, serif; font-size: 12pt;"> <div dir="ltr"> <div class="hr" style="margin: 5px 0px; padding: 0px; border: 1px solid rgb(204, 204, 204); border-image: none; height: 0px; line-height: 0; font-size: 0px;" contenteditable="false" readonly="true"></div>  <font face="Arial" size="2"> <b><span style="font-weight: bold;">From:</span></b> Anders Sandberg <anders@aleph.se><br> <b><span style="font-weight: bold;">To:</span></b> ExI chat list <extropy-chat@lists.extropy.org> <br> <b><span style="font-weight: bold;">Sent:</span></b> Friday, June 13, 2014 1:13 PM<br> <b><span style="font-weight: bold;">Subject:</span></b> Re: [ExI] for the fermi paradox fans<br> </font> </div> <div class="y_msg_container"><br><div id="yiv3654860527"><style type="text/css"><!--
#yiv3654860527 .yiv3654860527mcnt .yiv3654860527mcntmcnt {word-wrap:break-word;}

--></style><div>Continuing my thinking about extreme future computation:<div><br></div><div>http://arxiv.org/abs/quant-ph/9611028 "Limitations of noisy reversible computation" shows that noise is pretty bad for reversible computations: the total size of circuits need to grow exponentially with their depth in order to produce reliable computation (in normal circuits the growth is just polynomial). This is also true for quantum computations. Both kinds of circuits can simulate general classical or quantum circuits, but the cost is exponential. Of course, the glass-is-half-full view is that one can build working reliable systems out of noisy components (a la http://arxiv.org/abs/quant-ph/9906129 ) if the noise is below a certain level: you just need to pay a price for it. Very much like error-correcting codes in classical channels. But this shows that intricate messages require exponentially long codes, so to say. </div><div><br></div><div>So if
 extreme future life runs on largely reversible computers (classical or quantum) it needs to perform a Bennet-style undoing of intermediate results (http://www.math.ucsd.edu/~sbuss/CourseWeb/Math268_2013W/Bennett_Reversibiity.pdf) relatively often not just because error correction is expensive (if N bits are involved in the error syndrome then they all need to be reset at a cost) but because the retrace corresponds to a long circuit depth and the total circuit size hence goes up exponentially. So the amount of hardware grows with retrace length R as exp(R), and presumably the number of bit errors that need to be fixed also grows proportional to it - eventually it is better to just wipe the memory state completely rather than try to erase syndromes and retrace.</div><div><br></div><div><br>Anders Sandberg,
Future of Humanity Institute
Philosophy Faculty of Oxford University</div></div></div><br>_______________________________________________<br>extropy-chat mailing list<br><a href="mailto:extropy-chat@lists.extropy.org" ymailto="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br><a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br><br><br></div> </div> </div>  </div></body></html>