<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:large;color:#000000">What if an AI were developed that could accurately predict the </div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:large;color:#000000">stock market?  I suspect that buyers and sellers would intentionally make the predictions wrong if they were known.  If a person could make one but keep it a secret he would become very rich.  Or not?  bill w</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 4, 2023 at 4:59 PM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Tue, 4 Apr 2023 at 21:56, Gadersd via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
><br>
> I concur. In an adversarial environment it is almost never optimal from the perspective of one group to halt progress if the others cannot be prevented from continuing.<br>
><br>
> The AI safety obsession is quite moot as any malicious organization with significant capital can develop and deploy its own AI. AI safety can only achieve the goal of preventing low-capital individuals from using AI for malicious reasons for a time until the technology becomes cheap enough for anyone to develop powerful AI.<br>
><br>
> I am not sure how much good prolonging the eventual ability for any individual to use AI for harm will do. We will have to face this reality eventually. Perhaps a case can be made for prolonging individual AI-powered efficacy until we have the public safety mechanisms in place to deal with it.<br>
><br>
> In any case this only applies to little individuals. China and others will have their way with AI.<br>
> _______________________________________________<br>
<br>
<br>
Interesting thought, that 'friendly' AI means malicious use by the human owners.<br>
<br>
In the past, the main worry was AI running amok and destroying<br>
humanity. So the 'friendly' AI design was developed to try to ensure<br>
that humanity would be safe from AI.<br>
But how can we protect humanity from humanity?<br>
<br>
Nations and corporations will be running the powerful AGI machines,<br>
controlling economies and war machines.<br>
Personal AI will probably have to be much less capable<br>
in order to run on smartphones and laptops.<br>
But there will be plenty to keep the population amused.  :)<br>
<br>
BillK<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>