<div dir="ltr"><div dir="ltr">On Fri, Dec 3, 2021 at 3:05 PM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Apparently over 30 countries want to ban autonomous weapons, but the<br>
U.S.,  Russia, China, and India are against an outright ban. Mainly<br>
because they don't believe every country would adhere to the ban.<br>
<br>
<<a href="https://gizmodo.com/u-s-opposes-autonomous-weapons-ban-cites-what-about-c-1848158811" rel="noreferrer" target="_blank">https://gizmodo.com/u-s-opposes-autonomous-weapons-ban-cites-what-about-c-1848158811</a>><br>
<br>
Quotes:<br>
>From a U.S. government report -<br>
The authors go on to suggest autonomous weapons systems may represent<br>
an inevitability, given the increasing number of complex decisions<br>
operators will be forced to make in future battles.<br>
<br>
“The best human operator cannot defend against multiple machines<br>
making thousands of maneuvers per second potentially moving at<br>
hypersonic speeds and orchestrated by AI across domains,” the report<br>
reads.” “Humans cannot be everywhere at once, but software can.”<br></blockquote><div><br></div><div>This also points to potential near-term technologies that may blur the line as to what counts as "autonomous".  If a human operator designates a group of hypersonic missiles to be shot down but leaves the last-second maneuvering to do so to AIs, is that autonomous? </div></div></div>