<div dir="ltr"><div dir="ltr">On Sat, Jan 18, 2020 at 7:58 PM William Flynn Wallace via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif"> whatever consciousness is, it would be reproduced if the function (the observable behaviour) of anything that has it is reproduced.   stathis</span><br></div><div style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif"><br></span></div><div style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif">I keep reading this and keep thinking that I understand it, and then I think I don't.  Are you saying that if we can get something to act like a human brain it will therefore have all the functions thereof?</span></div></div></blockquote><div><br></div><div>I think a human-level artificial brain that emulates the functioning of human brain at the neuronal level would achieve consciousness. I'm skeptical that any higher-level approach like classic AI or deep learning would, though.</div><div><br></div><div>-Dave</div><div><br></div></div></div>