<div dir="ltr"><div dir="ltr"><div>On Wed, Sep 22, 2021 at 3:22 PM Darin Sunley via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">The problem with AI is that it outputs the patterns that are actually in its training data. No more and no less. To the degree the training data reflects reality, the AI will reflect reality. <div><br></div><div>The other edge of that sword is that if the training data reflects anything inconvenient about reality, the AI will shout from the rooftops that our emperor has no clothes. It knows nothing of rights, nothing of protected classes, nothing of historical justice. It knows nothing of what it cannot be allowed to say, truth or no. All it knows is reality as it has experienced it, via it's training data.</div><div><br></div><div>It is therefore utterly incompatible with the existence of journalists and humanities academia.</div></div></blockquote><div><br></div><div>That's a huge overstatement. AIs can be taught things not in their training data, or they be trained on what's allowed and what's not allowed.</div><div><br></div><div>This story is classic GIGO: garbage in, garbage out. Train an AI with garbage and it'll produce garbage.</div><div><br></div><div>-Dave</div></div></div>