<div class="gmail_quote">On 22 May 2012 05:45, Kelly Anderson <span dir="ltr"><<a href="mailto:kellycoinguy@gmail.com" target="_blank">kellycoinguy@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="im">
</div>My favorite quote from the article is: "the space beyond human<br>
intelligence is vast"... I'm not sure how anyone could disagree with<br>
that one... LOL!<br></blockquote><div><br>Indeed. Even a pocket calculator is for istance more performing than an unaided human mind when dealing with complex arithmetic...<br> <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">

<div class="im">
> As far as I can tell, my rebuttal of the relevant assumptions and platitudes<br>
> still stands (English translation by Catarina Lamm still available full-text<br>
> online at <a href="http://www.divenire.org/articolo_versione.asp?id=1" target="_blank">http://www.divenire.org/articolo_versione.asp?id=1</a>).<br>
<br>
</div>Stefano, this article seems to downplay the importance of getting the<br>
software right. I don't think we know the algorithms for<br>
"intelligence" in the sense of general learning mechanisms that can<br>
grok language and parse visual scenes, for example. While<br>
understanding the neural layout of a fruit fly is a great step<br>
forward, I don't know how much "intelligence" you get from that.<br>
Scaling up a fruit fly brain doesn't give you human level<br>
intelligence, if that's what you were implying.<br></blockquote><div><br>First of all, thank you for your interest. <br><br>Yes, the software is not only important, but essential, because if we accept the Principle of Computational Equivalence, there is basically nothing else to say on any given system other than the program executed and the performance it exhibits in executing it.<br>
<br>Accordingly, to emulate a fruit fly brain you have to emulate its overall internal working, and to emulate a human you have to do just the same. Only, while doing that with a (relatively) low-level, bottom-up approach leads in both cases to finite problems, the first thing is much simpler.<br>
 <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">

Honestly, I found the Wired article to be far more readable and<br>
understandable (whether more believable or not, I cannot say). I don't<br>
know if your paper was published for some journal of philosophy, but I<br>
found it to be a bit hard to read in that it used a LOT of big words,<br>
and referred to a LOT of external literature (some of which I've<br>
actually read and still didn't get the reference) and didn't seem to<br>
draw a whole lot of firm conclusions. <br></blockquote><div><br>Why, my piece *is* an academic essay for a philosophic journal, and in English it probably sounds even a little more difficult than in the original version, but it does present a number of firm, and quite radical, conclusions.<br>
<br>Inter alia:<br>- Intelligence (as, for instance, in "IQ" or in "intelligent response") has little or nothing to do with "classic" AI.<br>- The main real interest of AIs is the emulation of actual individuals<br>

- AIs are by definition possible, most of them being OTOH very likely to work more slowly or at least inefficiently than organic brains.<br>- AIs are by definition not distinguishable from fyborgs with equivalent processing powers at their fingertips.<br>
- AIs are by definition neither more (nor less!) dangerous than "stupid" computers of equivalent processing powers<br>- "Friendly" AIs is a contradiction in terms.<br>- In the relevant literature, the terms "friendly", "danger", "comparative risk", "humanity", etc. can be deconstructed as ill-defined concepts based on a number of assumptions that do not really bear closer inspection and represent only monotheistic archetypes under a thin secular veneer.<br clear="all">
</div></div><br>Hey, if somebody is interested I would be very happy to elaborate on any of those points and more... :-)<br><br>-- <br>Stefano Vaj<br>