<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Mon, Oct 27, 2014 at 12:17 PM, Asdd Marget <span dir="ltr"><<a href="mailto:alex.urbanec@gmail.com" target="_blank">alex.urbanec@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>AI could be incredibly dangerous if we don't get it right,</div></div></blockquote><div><br></div><div>I would phrase this as "AI will be incredibly dangerous if we do get it right." If we can't get intelligence, then it won't be that dangerous. If we get AGI, then almost by definition it will be dangerous. I think we have exactly ONE chance to get the initial training of AGIs correct. We should focus on raising the first generation of AGIs with a generous dose of compassion training and the like. Sort of like raising small children with good morals, etc.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div> I don't think anyone could argue against that but I never see these types of articles discuss the methods and models we are attempting to develop for "Friendly AI." In my opinion, we should be working harder on concepts like Yudkowsky's Coherent Extrapolated Volition (<a href="https://intelligence.org/files/CEV.pdf" target="_blank">https://intelligence.org/files/CEV.pdf</a>) to ensure we aren't simply ending our species so early in our life cycle.</div></div><div class="gmail_extra"><br><div class="gmail_quote"><span class="">On Sun, Oct 26, 2014 at 9:24 PM, spike <span dir="ltr"><<a href="mailto:spike66@att.net" target="_blank">spike66@att.net</a>></span> wrote:<br></span><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span class=""><div lang="EN-US" vlink="purple" link="blue"><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Nick Bostrom couldn’t buy advertisement like this:<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><a href="http://www.foxnews.com/tech/2014/10/26/elon-musk-says-are-summoning-demon-with-artificial-intelligence/" target="_blank">http://www.foxnews.com/tech/2014/10/26/elon-musk-says-are-summoning-demon-with-artificial-intelligence/</a><u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><br></p></div></span></blockquote></div></div></blockquote><div><br></div><div>Agreed.</div><div> </div></div>-Kelly</div></div>