<div dir="ltr">I can summarize the issue as follows:<div><br></div><div><b>Either</b> <b>(A)</b> We are alone (there are no other intelligent civilizations), </div><div><b>or</b> <b>(B)</b> We are not alone (there are other intelligent civilizations).</div><div><br></div><div>John reasons: <b>if</b> <b>(B)</b> <b>and</b> <b>(C)</b> intelligent life would spread rapidly across the cosmos <b>and</b> <b>(D)</b> it would be obvious to us if intelligent life spread as their megastructures would be clearly visible to us <b>then</b> we can conclude <b>not (B)</b> since we do not see obvious megastructures everywhere, thus <b>(A).</b></div><div><b><br></b></div><div>The reasoning is sound, but John treats <b>(C)</b> and <b>(D)</b> are necessarily true, rather than assumptions that need to be justified.</div><div><br></div><div>For what it's worth, I think <b>(C)</b> is likely true (but not necessarily true, e.g. see <a href="https://accelerating.org/articles/transcensionhypothesis.html">trancension hypothesis</a>), but I have significant doubt about whether <b>(D)</b> is true.</div><div><br></div><div>As I see it, option <b>(D)</b> is like opting to burn whale oil that harms life, when more productive and less ecologically disastrous energy sources exist. Consider: nuclear fusion liberates only 0.7% of the energy contained in a star's mass, and it necessitates operating at high temperatures where computation is inefficient. So if optimizing the total number of computations to be performed before the end of the universe is the goal, then I doubt Dyson swarms will be high on any intelligent civilization's list. Maximizing useful computations is the ultimate instrumental goal because it is the source of the only thing with intrinsic value: states of consciousness. And it doesn't matter if it takes hundreds of trillions of years to do it. 99.3% of energy will be trapped in stellar remnants for conversion via black hole engines to drive the hole computers, at times when the universe is much colder, and there is no danger of dooming other life to selfishly snipe that 0.7% for yourself at a time when it's so critical to self-originating life.</div><div><br></div><div>Until John can justify <b>(C)</b> and <b>(D)</b> his conclusion of <b>(A)</b> is premature.</div><div><br></div><div>Jason</div><div><b><br></b></div></div>