<div class="gmail_quote">On 21 January 2011 15:40, Eugen Leitl <span dir="ltr"><<a href="mailto:eugen@leitl.org">eugen@leitl.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
Humans are competitive in the real world. They're reasonably well-rounded<br>
for a reference point.<br></blockquote><div><br>"Competitive" is a Darwinian reference. A competitive car may be a different concept, and extremely complicate computations happen in nature which need not be competitive in that sense to take place and reproduce themselves.<br>
<br>So, a computational device is not going to exhibit anything like that unless we program them, or some routines running on them, to emulate Darwinian features, or an artificial environment where they may evolve them through random mutation and selection. <br>
<br>In the latter case, programs or devices may end up being *very* competitive without exhibiting anything vaguely similar to human intelligence or even very sophisticated computations, for that matter (see under gray goo). In fact, mammal- or human-like intelligence is just one possible Darwinian strategy amongst a very large space of possible alternatives. Bacteria, as replicators, are, e.g., at least as competitive as we are.<br>
<br></div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<div class="im">
> 2) If the Principle of Computational Equivalence is true, what are we<br>
> really all if not "computers" optimised for, and of course executing,<br>
> different programs? Is AGI ultimately anything else than a very<br>
<br>
</div>Can I check out your source? No, not the genome, the actual data<br>
in your head.<br></blockquote><div><br>Be my guest, just remember to return my brain at the end when you have finished disassembling its machine code... :-) <br><br>Seriously, I do not believe that we have to resort to very-low level emulation of bio brains to emulate one or another of their features, but once such emulation is satisfactory enough what we have actually performed a black-box is  reeeingeneering of its relevant programs, so that the only practical difference with the original coding is probably copyright...<br>
<br></div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<div class="im">
> complex (and, on contemporary silicon processor, much slower and very<br>
> inefficient) emulation of typical carbo-based units' data processing?<br>
<br>
</div>Inefficient in terms of energy, initially, yes. But if you can spare<br>
a few 10 MW you can do very interesting things with today's primitive<br>
technology. Any prototype is inefficient, but these tend to ramp up<br>
extremely quickly. In terms of physics of computation we people are<br>
extremely inefficient. We only look good because the next-worst spot<br>
is so much worse. But we're fixed, while our systems are improving<br>
quite nicely.<br></blockquote><div><br>I am not referring to energy efficiencies, but simply to the kind of efficiency where a human brain or a cellular automaton are very slow in calculating the square roots of large integers, and contemporary computers are quite slow at accurate, fine-grained pattern recognition. <br>
<br>And I do not really see why we would be "fixed". Of course, there are a number of computations which are likely to be performed more efficiently on different hardware. You have just to add or move or replace the relevant portions, as in any system. E.g., distributed computing projects have dramatic bandwith bottleneck problems in comparison with traditional HPC. Does it prevent them from attacking just the same problems? No.<br>
<br>But take a Chinese Room with sufficient time and memory, you can have it emulate anything at arbitrary degrees of accuracy. And this is of course true also for silicon-based processors and any other device passing the very low threshold of universal computation.<br>
<br></div></div>-- <br>Stefano Vaj<br>