<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Jun 12, 2020 at 5:22 PM The Avantguardian via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I would say that we are close enough that we need to have a better definition of AGI. For example does a honeybee have "general intelligence"? If so, we are already really close because we can currently compute neural networks with the complexity of a honeybee brain. Assuming neuron number is a correlate of intelligence, it will be about 44 years until Moore's law reaches human brain parity. But we might reach rat or raven parity in about 14 years.<br>
<br>
See old thread "Benchmarking the SIngularity" for more info:<br>
<br>
 <a href="http://lists.extropy.org/pipermail/extropy-chat/2019-July/097196.html" rel="noreferrer" target="_blank">http://lists.extropy.org/pipermail/extropy-chat/2019-July/097196.html</a><br><br></blockquote><div><br></div><div>Stuart,</div><div><br></div><div>Thanks for sharing that, it was very interesting.</div><div><br></div><div>Regarding parity of the human brain, how are you estimating the computational complexity of the brain? The Summit supercomputer can perform as many Ops/second as a generous estimate of total synaptic firings the human brain can have per second.</div><div><br></div><div>Jason </div></div></div>