<div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Mar 24, 2016 at 1:03 AM, Robin D Hanson <span dir="ltr"><<a href="mailto:rhanson@gmu.edu" target="_blank">rhanson@gmu.edu</a>></span> wrote:</div><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">



<div style="word-wrap:break-word"><div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​> ​</div>You can code an awful lot of complexity into even 100MB of code, and if that is non-modular spaghetti object code instead of modular documented source code, it could take an awful long time to figure out. </div></div></blockquote><div><br></div><div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​<font size="4">Then it might be better to look for the master learning algorithm directly rather than trying to reverse engineer the biological brain; the recent successes in deep machine learning like </font></div><font size="4">AlphaGo<div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline">​ makes me think we might not be too far from finding it.​</div></font><br></div><div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline"><font size="4"><br></font></div></div><div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;display:inline"><font size="4"> John K Clark</font></div></div><div><font size="4"><br></font></div><div><font size="4"> </font></div></div></div></div>