<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 29, 2022 at 2:52 PM Darin Sunley via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Perceptron-style "neurons" were a simplified caricature of how neurologists thought neurons /might/ work back in the 70s, even when they were first implemented.<div><br></div><div>Time and neurological research hasn't been kind to the comparison.</div><div><br></div><div>At this point, the only similarity between the basic elements of network-based machine learning algorithms and mammalian brain cells is the name. ML "neurons" are basically pure mathematical abstractions, completely unmoored from anything biological cells actually do.</div></div></blockquote><div><br></div><div>### Biological neurons and ML neural nets that run on digital computers are both physical implementations of the mathematical abstraction that, among others, enables intelligence. So ML is not unmoored from biological cells, it is a high-level abstract description of what the biological cells actually do.</div><div><br></div><div>Rafal</div></div></div>