<div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:arial,sans-serif">On Tue, Jan 16, 2018 at 2:55 PM, Dylan Distasio </span><span dir="ltr" style="font-family:arial,sans-serif"><<a href="mailto:interzone@gmail.com" target="_blank">interzone@gmail.com</a>></span><span style="font-family:arial,sans-serif"> wrote:</span><br></div><div class="gmail_extra"><div class="gmail_quote"><div> <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​> ​</div>in theory, adversarial attacks can be used to game machine learning systems in a black hat hacking sort of way.  You could trick the system into doing exactly what you want it to just by feeding it bad data for ill gotten gain.</div></blockquote><div><br></div><div><font size="4"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​It's certainly a good thing that unlike computers its impossible ​to fool human beings,</div> <div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​otherwise we could end up with a president who was not only crazy but also stupid, but of course such a thing could never happen.</div></font></div><div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline"><font size="4"><br></font></div></div><div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline"><font size="4">John K Clark </font>​</div></div><div><br></div><div><br></div></div></div></div>