<div class="gmail_quote">On 22 May 2012 18:23, Kelly Anderson <span dir="ltr"><<a href="mailto:kellycoinguy@gmail.com" target="_blank">kellycoinguy@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
> Yes, the software is not only important, but essential, because if we accept<br><div class="im">
> the Principle of Computational Equivalence, there is basically nothing else<br>
> to say on any given system other than the program executed and the<br>
> performance it exhibits in executing it.<br>
<br>
</div>Ok, I agree with that. Though it is also true that faster processing<br>
is equivalent, in some sense, to higher intelligence.<br></blockquote><div><br>Absolutely. In fact, I contend that given that beyond a very low level of complexity there is no qualitative difference in the capacity of information-processing systems, the only plausible definition of intelligence is "speed in executing a given program". This suggests that:<br>
i) all systems achieving the level of universal computation are in a way "intelligent";<br>ii) it does not make sense to measure the intelligence of a given system unless with reference to a given task.<br><br></div>
<blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="im">
> English it probably sounds even a little more difficult than in the original<br>
> version, but it does present a number of firm, and quite radical,<br>
> conclusions.<br>
<br>
</div>> Inter alia:<br><div class="im">
> - Intelligence (as, for instance, in "IQ" or in "intelligent response") has<br>
> little or nothing to do with "classic" AI.<br>
<br>
</div>That's possible, though that does not imply that classic AI has no<br>
practical applications, it does.<br></blockquote><div><br>Agreed, one being that mentioned below.<br><br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">

<div class="im">
> - The main real interest of AIs is the emulation of actual individuals<br>
<br>
</div>i.e. uploading. Specific individuals.<br></blockquote><div><br>Exactly.<br> <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div class="im">
> - AIs are by definition possible, most of them being OTOH very likely to<br>
> work more slowly or at least inefficiently than organic brains.<br>
<br>
</div>I would agree with that... thought it is something of a matter of<br>
faith or lack thereof.<br></blockquote><div><br>As to the first part, I think I have persuasive arguments (in a shell: if the universe with all its content can be emulated by any given system  - although it is possible that a quantistic processor be required for practical purposes - this applies as well to any of its parts, including organic brains). For the second, I think that the evidence that indicates that is anedoctical, but eloquent.<br>
  <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="im">
> computers of equivalent processing powers<br>
<br>
</div>The issue with AI isn't that it is dangerous, but rather by its very nature it is not as<br>
predictable as a programmed computer. Yes, programmed computers with<br>
bugs can cause airplanes to crash, but it is unlikely that a stupid<br>
computer of today is going to rise up and take over the world. Yet<br>
just such things are possible with AGI. If you can counter this<br>
argument, I'm certainly interested in what you would have to say.<br></blockquote><div class="im"><br>There again, I think that Wolfram is right in remarking that everything is  "programmed" after a fashion, the only difference being that for a very small subset thereof we have an algorithmic trick to access the status of the system without running it step by step to the end. <br>
<br>For the very large majority of systems, however, including most non-organic ones, we simply have to do that, and in that sense they are "impredictable". A system need not to be "intelligent" in any classic AI sense to fall in the last category, since many cellular automata already do.<br>
<br><br>
</div><br><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">> - In the relevant literature, the terms "friendly", "danger", "comparative<br>
<div class="im">
> risk", "humanity", etc. can be deconstructed as ill-defined concepts based<br>
> on a number of assumptions that do not really bear closer inspection and<br>
> represent only monotheistic archetypes under a thin secular veneer.<br>
<br>
</div>I see where you are coming from there. I don't think "unpredictable"<br>
is in this same category.<br></blockquote><div><br>No, in fact the issues are "what is a danger?", "a danger for whom?", "whose 'existence' are we speaking when we say 'x-risks'?". "what adds to what risk and what is the atlernative?", "why should one care?", etc. The best that has been produced in the more of less implicit utilitarianism of Bostrom, but while being ethically utilitarianists is not mandated by any law or cogent philosophical reason, even there a number of choices and assumptions which are pretty arbitrary in nature can be easily identified, IMHO.<br>
<br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I also don't see how what you say so strongly contradicts what was in<br>
the Wired article. What in that article do you strenuously disagree<br>
with?<br></blockquote></div><br>If anything, the vision of AIs suggested therein and the idea that we should be concerned of a related x-risk.<br><br>-- <br>Stefano Vaj<br>