<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Oct 27, 2014 at 12:17 PM, Asdd Marget <span dir="ltr"><<a href="mailto:alex.urbanec@gmail.com" target="_blank">alex.urbanec@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>AI could be incredibly dangerous if we don't get it right, I don't think anyone could argue against that but I never see these types of articles discuss the methods and models we are attempting to develop for "Friendly AI." In my opinion, we should be working harder on concepts like Yudkowsky's Coherent Extrapolated Volition (<a href="https://intelligence.org/files/CEV.pdf" target="_blank">https://intelligence.org/files/CEV.pdf</a>) to ensure we aren't simply ending our species so early in our life cycle.</div></div><br></blockquote></div><br><br></div><div class="gmail_extra">You mentioned "I don't think anyone could argue against that", but in my opinion just the opposite is true.  This is exactly the kind of bleating that herds tend to focus on, despite zero good arguments to support such fears of AI.  In my opinion, Canonizer.com is good at filtering through these kinds of things the herd tends to think are good arguments, when in reality, they are not good arguments, and do not stand up to expert review.  When people try to concisely state their arguments, and attempt to build any kind of expert consensus supporting them, they quickly get weeded out, even self censored (i.e. it doesn't even make it to the state where someone is willing to submit them to Canonizer.com.)<br><br></div><div class="gmail_extra">While good arguments that do stand up to expert and peer review/support quickly rise to the top, and people are much more motivated to do the work to get the arguments canonized.<br><br></div><div class="gmail_extra">The "<span id="camp">The importance of Friendly Artificial Intelligence." </span>survey topic at Canonizer.com is a good  example of this, in my opinion.  It is almost as good an example as all the bleating consciousness noise we once had on all the transhumanist forums, before all that finally got canonized, amplifying everyone's wisdom on the topic.  So nice now that all the bleating on consciousness no longer exists.<br><br><a href="http://canonizer.com/topic.asp/16">http://canonizer.com/topic.asp/16</a><br><br>There are very strong arguments for why concern over AI is just dumb, a complete waste of time, and so far at least, there is more consensus for these arguments, than there are for the fear mongering camps.<br><br>And of course, you can tell which camp I am strong in, so surely this has biased my view, so take everything I say, with a grain of salt.<br><br>But, along with that, if you do have ANY good arguments, as to why we should fear AI, for any reason, and/or you see ANY mistakes in the leading consensus arguments that have been canonized to date, please make some effort to point such out, and do more than just bleating this kind of assertion noise, with nothing to back it up.  In other words, if you think there is something to what you are thinking, and bleating here, please canonize that, to help everyone be more educated, rather than just adding more bleating noise.  This is definitely a critically important tpoic that could use some significant amplification of the wisdom of the bleating crowd by some concise and quantitative communication.<br><br>Brent Allsop<br><br><br><br><br><br></div><div class="gmail_extra"><br><br><br></div><div class="gmail_extra"><br><br></div><div class="gmail_extra"><br><br><br></div></div>