<div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 23, 2019 at 3:42 PM BillK <<a href="mailto:pharos@gmail.com">pharos@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Quote:<br>
The new paper from Bostrom introduces the concept of a vulnerable<br>
world : roughly, one in which there is some level of technological<br>
development at which civilization almost certainly gets devastated by<br>
default.<br>
--------<br>
<br>
It is controlling the advanced technology that is the problem. Whether<br>
misused by rogue states or groups or individuals.<br>
It is difficult to see how this control can be achieved in a world<br>
where states are seeking to gain decisive advantage and others are<br>
resisting.<br>
The AI 'Hive-mind' civilisation might be the only survivable route.<br></blockquote><div><br></div><div>In all the fear of wild, unfettered destructive technology, is there no consideration of wild, unfettered constructive technology?  Just last week I was at a space tech conference wherein I had multiple conversations that could fairly be summarized as, "What happens (legally, or with respect to various government or private programs) if we send mostly automated, self-replicating to a convenient extent, construction bots to the Moon and have them set up human habitation?"</div><div><br></div><div>Relevant to this topic, would such efforts (if done outside the control of government elites directly profiting from it) not be seen, objected to, and shut down by a government with total surveillance just the same as a terrorist building weapons?  To give but one example of specific harm that the proposed change would bring about.<br></div></div></div>