<div><span class="gmail_quote">On 10/5/06, <b class="gmail_sendername">Eliezer S. Yudkowsky</b> <<a href="mailto:sentience@pobox.com">sentience@pobox.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Highly skilled rationalists who understand intelligence are going to be<br>on guard against:<br><br>Separate magisteria;<br>Extensional neglect;<br>Scope neglect;<br>Inconsistent evaluations of different verbal descriptions of the same
<br>events;<br>not to mention,<br>Failure to search for better third alternatives;<br>Fatuous philosophy that sounds like deep wisdom; and<br>Self-destructive impulses.<br><br></blockquote></div><br>I do not claim to be a highly skilled rationalist.  So I will only ask a question.
<br><br>What if the superior processing power was something similar to the Star Trek Borg?   I know, this is "science [sic] fiction" but the concept is akin to forced upload into a Matrioshka Brain.  Would we collectively be "better off" in terms of escaping the zero-sum life experience?  Each individual in the collective could feasibly believe they were at the top of the hierarchy.   Rather than fighting amongst ourselves over the limited biochemicals contained on this rock called Earth, we could simulate the misery of earthly existence for the nostalgic masochists who refuse to move on.  I know the 'Borg' were depicted as horrible enemies of humanity - but once you get over the serialization-upload-deserialization procedure, "life" as the uploaded are concerned could be at least equal if not infinitely easier.
<br><br>If this is an amusing enough thought to point out which of the above enumerated rational failures were employed, I would actually appreciate the insight.<br>