<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:rgb(0,0,0)">we found a way of getting software to figure out roughly what we mean in some domains by giving them lots of examples. <br><div></div><br>Anders Sandberg,
Future of Humanity Institute
Philosophy Faculty of Oxford University<br><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:rgb(0,0,0)">Does this mean that the computer is doing induction?  bill w<br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Sep 30, 2014 at 4:06 AM, Anders Sandberg <span dir="ltr"><<a href="mailto:anders@aleph.se" target="_blank">anders@aleph.se</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><span><span title="foozler83@gmail.com">William Flynn Wallace</span><span> <<a href="mailto:foozler83@gmail.com" target="_blank">foozler83@gmail.com</a>></span></span> , 29/9/2014 2:56 PM:<span class=""><br><blockquote style="margin:0px 0px 0px 0.8ex;border-left-width:2px;border-left-color:blue;border-left-style:solid;padding-left:1ex"><div style="font-family:'comic sans ms',sans-serif;font-size:small"><p style="margin-bottom:12pt"><span style="font-family:'Comic Sans MS'">Just recently glial cells have been found to not only supply neurons with nutrition and serve as the blood brain barrier, but actually affect the functioning of them.  We have no idea how or why now.  Given that there are 100 billion neurons with up to 25K connections and up to 5 trillion glial cells, it will be a very long time, maybe never, before we can begin to understand just what is going on up there except in a fairly general way.</span></p></div></blockquote></span></div><div>I did some analysis of this in my WBE roadmap and was not too worried. Glial cells are slow to update, so they take orders of magnitude less computing to simulate than neurons. If they really matter we still may have a higher memory demand, but throwing around large numbers is not a good argument (especially when Moore's law works; see <a href="http://www.aleph.se/papers/Monte%20Carlo%20model%20of%20brain%20emulation%20development.pdf" target="_blank">http://www.aleph.se/papers/Monte%20Carlo%20model%20of%20brain%20emulation%20development.pdf</a> ). And we are already doing specific simulations of the brain, it is just that they lack actual scanned connectivity so they are either generic circuits or small well studied microcircuits. Brain emulation is not the road to AI for the next few decades (again, see my paper).</div><span class=""><div><br></div><div><blockquote style="margin:0px 0px 0px 0.8ex;border-left-width:2px;border-left-color:blue;border-left-style:solid;padding-left:1ex"><div style="font-family:'comic sans ms',sans-serif;font-size:small"><p style="margin-bottom:12pt"><span style="font-family:'Comic Sans MS'"></span></p><p style="margin-bottom:12pt"><span style="font-family:'Comic Sans MS'">So when we say that we want a computer to think or create we are going to have to specify exactly what we mean</span></p></div></blockquote></div></span>Yup. This is why de novo AI is hard to do. The wild success of machine learning recently has been because we found a way of getting software to figure out roughly what we mean in some domains by giving them lots of examples. <br><div></div><div><br></div><br>Anders Sandberg,
Future of Humanity Institute
Philosophy Faculty of Oxford University</div><br>_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
<br></blockquote></div><br></div>