<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><blockquote type="cite" class=""><div dir="ltr" class=""><div class="">P.S. Uploading will not precede the development of unaligned AGI. If I wasn't already pretty sure the human race was already under the complete, bulletproof control of a superhuman AGI, I would be very concerned.</div></div></blockquote><div class=""><br class=""></div>How confident are you that God will prevent an unaligned AGI from wrecking havoc? If an AGI does destroy humanity, would you then conclude God doesn’t exist or that God doesn’t care sufficiently to prevent such a scenario?<br class=""><div><br class=""><blockquote type="cite" class=""><div class="">On Oct 23, 2023, at 1:24 PM, Darin Sunley via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" class="">extropy-chat@lists.extropy.org</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div dir="ltr" class="">Power doesn't flow from the control of capital.<div class="">Power flows from the barrel of a gun.</div><div class="">"Economic hegemony" is a game human billionaires play, that is only viable because they exerted enough influence over national governments to effectively outlaw total war.</div><div class=""><br class=""></div><div class="">One AI controlled virology/nanotechnology lab, in a single cargo container sitting a few hundred feet beneath some random chunk of wilderness, will end the biological human race, if the AI so chooses, using on an infinitesimal fraction of the world's capital. The ratio of global capital controlled by humans vs AIs will not be relevant.</div><div class=""><br class=""></div><div class="">P.S. Uploading will not precede the development of unaligned AGI. If I wasn't already pretty sure the human race was already under the complete, bulletproof control of a superhuman AGI, I would be very concerned.</div></div><br class=""><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Oct 23, 2023 at 10:19 AM Gadersd via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" class="">extropy-chat@lists.extropy.org</a>> wrote:<br class=""></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">> Humanity would have to be aligned first.<br class="">
> <br class="">
> BillK<br class="">
<br class="">
That’s one possibility I fear. I believe it has been tried before and the success rate doesn’t seem very good, although with enough bloodshed I’m sure it's possible at least for a time. The future may be bright, blindingly burning bright.<br class="">
<br class="">
> On Oct 23, 2023, at 11:04 AM, BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" class="">extropy-chat@lists.extropy.org</a>> wrote:<br class="">
> <br class="">
> On Mon, 23 Oct 2023 at 14:19, Gadersd via extropy-chat<br class="">
> <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" class="">extropy-chat@lists.extropy.org</a>> wrote:<br class="">
>> <br class="">
>> As most of your are aware, our economic systems will likely soon find themselves a bit stressed and strained due to the impact of AGI. I have heard a few suggestions as to what will follow.<br class="">
>> <br class="">
>> One idea is that most of the world’s equity will be distributed to verified humans and with sound long term investment humanity may maintain capitalistic hegemony over the machines who will start at the bottom of the socioeconomic hierarchy. As long as the cost of revolution outweighs the benefits of working for the rich, humans may retain control, similar to today’s capitalistic system. One aspect of this system that I like is that it is decentralized and self-stabilizing as long as balance can be maintained.<br class="">
>> <br class="">
>> Another idea is that a powerful AGI will be the centralized governing body for humanity and distribute resources to those who need them. I am not fond of centralized systems as they are prone to corruption. What if the AGI is not as benevolent as we thought and now it’s too late for it to give up control?<br class="">
>> <br class="">
>> Any ideas?<br class="">
>> _______________________________________________<br class="">
> <br class="">
> <br class="">
> The idea that a powerful AGI could be the centralized governing body<br class="">
> for humanity and distribute resources to those who need them is full<br class="">
> of problems.<br class="">
> Would this give too much power to AGI?<br class="">
> How to ensure fairness of distribution?<br class="">
> Are all nations involved?<br class="">
> Could the distribution be corrupted?<br class="">
> (But then look at the present state we are in).<br class="">
> <br class="">
> It depends on resolving the AGI alignment problem and humanity has so<br class="">
> many different value systems that it becomes impossible to apply one<br class="">
> solution to all humanity. Humanity would have to be aligned first.<br class="">
> <br class="">
> BillK<br class="">
> <br class="">
> _______________________________________________<br class="">
> extropy-chat mailing list<br class="">
> <a href="mailto:extropy-chat@lists.extropy.org" target="_blank" class="">extropy-chat@lists.extropy.org</a><br class="">
> <a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank" class="">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br class="">
<br class="">
<br class="">
_______________________________________________<br class="">
extropy-chat mailing list<br class="">
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" class="">extropy-chat@lists.extropy.org</a><br class="">
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank" class="">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br class="">
</blockquote></div>
_______________________________________________<br class="">extropy-chat mailing list<br class=""><a href="mailto:extropy-chat@lists.extropy.org" class="">extropy-chat@lists.extropy.org</a><br class="">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat<br class=""></div></blockquote></div><br class=""></body></html>