<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, May 16, 2019 at 7:51 PM Dylan Distasio <<a href="mailto:interzone@gmail.com">interzone@gmail.com</a>> wrote:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><br></div><div dir="auto">John, this is a very valid concern.  I work in the financial industry and can tell you there is already a lot of pushback from regulators on any type of black box AI used for these purposes.  Generally, large financial firms need to be able to explain exactly why a decision was made which discourages the use of deep learning algos and incentivizes algos like a tree based approach where it's more obvious what went into a decision. </div></div></blockquote><div><br></div><div>### I am not surprised that regulators want to reduce the predictive value of credit repayment algorithms. They are using banking regulations for social engineering and redistribution purposes and an AI that successfully grades credit applications strictly on the default risk would interfere with their political goals. </div></div></div>