<div class="gmail_quote">On 23 May 2012 21:38, Kelly Anderson <span dir="ltr"><<a href="mailto:kellycoinguy@gmail.com" target="_blank">kellycoinguy@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
> Absolutely. In fact, I contend that given that beyond a very low level of<br><div class="im">
> complexity<br>
<br>
</div>I grant this if the "low" level of complexity is far above the levels<br>
we have achieved today.<br></blockquote><div><br>Not at all. From a cellular automaton to a Turing machine to the original 1980 PC, every system exhibiting the property of universal computation is beyond that level. See <a href="http://www.wolframscience.com/nksonline/section-12.1">http://www.wolframscience.com/nksonline/section-12.1</a>.<br>
 <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">But if the task is broadly defined, such as Darwinian "fitness within<br>
a given environment" you can get pretty close to what lay people call<br>
intelligence. If such fitness is in the environment of Wall Street,<br>
then there are machines that are already smarter than most people.<br></blockquote><div><br>Absolutely, as are a number of very simple biological organisms.<br> <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
I'm not sure this is the main interest, but it is certainly an<br>
important one. I think another main problem for AIs to solve is the<br>
optimal employment of all available resources, which probably isn't<br>
best accomplished with human-like intelligence, but something that is<br>
far more capable in statistics. Human thought patterns are downright<br>
contraindicated when compared with cold statistical analysis.<br></blockquote><div><br>OTOH, this require processing power, but not necessarily any kind of anthropomorphic, "classic AI", kind of intelligence.<br>
 <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="im">
> that is anedoctical, but eloquent.<br>
<br>
</div>I'm about a third of the way through Wolfram's NKS right now, so I may<br>
not have gotten the full force of his argument yet... but the main<br>
thing that I get from him so far is that you can't predict the outcome<br>
of chaotic systems from the initial state. I guess that's what you're<br>
saying too.<br></blockquote><div><br>He makes a distinction between "predictable" (a program enumerating the powers of 2), chaotic (a program calculating the effect of the butterfly wings on hurricanes the other end of the world), and "truly unpredictable", which remain fully deterministic, but where the only way to calculate the final status is to run the program step by step to the end.<br>
<br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div class="im">
</div>But most computer science, as it is practiced today, is highly<br>
predictable. </blockquote><div><br>Yes, even extremely simple programs can be shown to be fully unpredictable, that is, able to generate arbitrary degrees of complexity, even though they do not exhibit any especially intelligent behaviours.<br>
 <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I think most of the discussion takes place from the perspective of<br>
unenhanced human beings. Asked succinctly, Will the resources made<br>
available to unenhanced human beings in the future be sufficient for<br>
their needs (including survival into the indefinite future) and many<br>
of their wants?<br></blockquote><div><br>"Unenhanced human beings" are going to create new entities, who will demand careful programming at the beginning, and then will become more and more essential to the working of their societies, and eventually marginalise them altogether, while they gradually go extinct. This is called the succession of generations, and has gone on since human beings came first into existence. What else is new?<br>
<br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Bostrom's existential risk applies to "earth-originated intelligence",<br>
but most proles are more concerned about their skin and that of their<br>
progeny. </blockquote><div><br>OK, as for their personal skin, they are under the much more actual threat of being dead *anyway* within less than a century in average, and in most cases much sooner, unless something drastic happens. As for their progeny, we have to define first what "progeny" is. Immediate children? Genetic successors? Co-specifics? "Children of the mind"? I am not sure there any final reason to opt for one definition or another, but I have an answer for each.<br>
<br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
It's the same problem we have convincing them that they are actually<br>
better off letting the 1% run the world rather than the 99%.<br clear="all"></blockquote></div><br>I have some views about that as well, but perhaps this will bring us too far... :-)<br><br>-- <br>Stefano Vaj<br>