<div dir="ltr"><div dir="ltr"><div>On Wed, Sep 22, 2021 at 5:48 PM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Wed, 22 Sept 2021 at 21:13, Dave Sill via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
><br>
> That's a huge overstatement. AIs can be taught things not in their training data, or they be trained on what's allowed and what's not allowed.<br>
><br>
> This story is classic GIGO: garbage in, garbage out. Train an AI with garbage and it'll produce garbage.<br><br>
Nobody will argue against GIGO.  But that's missing the point.<br>
<br>
If we want an advanced AI to organise the world in the best possible<br>
way, then presumably we will train it to avoid garbage and to try to<br>
remove any garbage it encounters so as to improve our systems.</blockquote><div><br></div><div>Agreed.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"> But what happens if the AI finds that humans are generating garbage<br>
constantly?</blockquote><div><br></div><div>Which we do, of course.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"> Should it try to stop humans from doing or saying 'not<br>
allowed' things?</blockquote><div><br></div><div>No, of course not. The goal right now is to stop AIs from acting racist/bigotted/misogynistic.</div><div><br></div><div>They're having that problem because of GIGO.</div><div><br></div><div>-Dave</div><div><br></div></div></div>