<div dir="ltr"><br><div>I guess the scary thing is if the US took this view, and China didn't, and we got into a war with China, who would win?</div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 12, 2023 at 2:12 PM William Flynn Wallace via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)">I think that how much trouble an AI can create depends solely on what it is hooked up to.  I would not let one run anything other than really trivial things .  Take their recommendations but enable them yourself.  bill w</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 12, 2023 at 12:14 PM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Fri, 12 May 2023 at 17:37, Adrian Tymes via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
><br>
> On Fri, May 12, 2023, 9:10 AM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
>><br>
>> Just as the basic chess-playing computers learn by playing millions of<br>
>> test games in a very brief interval of time, the AGI will change its<br>
>> own programming in what will appear to humans to be the blink of an<br>
>> eye. By the time humans know something unexpected is happening it will<br>
>> be too late.<br>
><br>
><br>
> This does not follow.  The chess playing programs took time to improve.  There exist today experiments in self-optimizing AIs.  If they were inherently of infinite speed (or would quickly achieve this from exponential improvement), they would have already demonstrated this.<br>
><br>
> Many of the fears about AGI seem to stem from fears of infinities like this.  "Some day, the very first thing of this kind shall appear and it will immediately do things before humans can react."  The data does not make this assertion likely, let alone guaranteed.<br>
> _______________________________________________<br>
<br>
<br>
Ohhh, you're one of these crazy optimist types!  :)<br>
It is not fear, to say just be careful. Caution required!<br>
<br>
I asked Bard -<br>
Could a self-optimising AI improve faster than humans can react?<br>
<br>
Bard replied -<br>
Yes, a self-optimizing AI could improve faster than humans can react.<br>
This is because AI can learn and improve at an exponential rate, while<br>
humans are limited by our biological capabilities. For example, AI can<br>
process and analyze vast amounts of data in a fraction of the time it<br>
takes a human to do so. This allows AI to identify patterns and make<br>
connections that humans would never be able to see. Additionally, AI<br>
can experiment and try new things without fear of failure. This allows<br>
AI to learn and improve much faster than humans, who are often<br>
hesitant to take risks.<br>
<br>
As a result of these factors, it is possible that a self-optimizing AI<br>
could eventually surpass human intelligence. This could have a<br>
profound impact on society, as AI could potentially solve some of the<br>
world's most pressing problems. However, it is important to remember<br>
that AI is still in its early stages of development. It is possible<br>
that AI could pose a threat to humanity if it is not carefully<br>
controlled. It is therefore important to develop ethical guidelines<br>
for the development and use of AI.<br>
------------------<br>
<br>
So charging ahead to develop AGI as fast as possible means facing<br>
risks that we don't yet know about.<br>
<br>
<br>
<br>
BillK<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>