<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">ben wrote - <span style="font-family:Arial,Helvetica,sans-serif;color:rgb(34,34,34)">I take it that you must be equally disbelieving about the possibility of</span></div>nanotechnology then? Something that exists in biology, but no way can it<br>be possible in non-biological systems?<div><br></div><div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">I never said it was impossible, just enormously complicated.  I believe nanotechnology will revolutionize many things- buildings that build themselves, injections into our bodies to cure things.  Most unimaginable now.</div><br></div><div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">What interests me most about AI is their ability to correct the sorts of mental errors we are so likely to make.  For instance:  I answer a lot of questions on Quora.  I get a lot of this:  "Do you think you can tell if a person is good or bad?"  My answer, to keep it short: "There are no bad people.  There are no good people.  Nobody is totally good or bad."</div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">Simple overgeneralization, and yet supposedly intelligent people are making this easily avoidable error.  AI can be programmed to think better than we can, not just faster.  That excites me.  Whether they are conscious or ever will be, does not. Either way is OK with me.  Is there some advantage I am missing, having AI being conscious?<br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">bill w</div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Jan 19, 2020 at 12:32 PM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 19/01/2020 15:41, BillW wrote:<br>
> And I will respond that thinking that machines can have emotions and <br>
> consciousness is really way, way, far out - dreaming.    Read too much <br>
> scifi.  There is not one iota of evidence that such things are <br>
> possible, much less likely.  bill w<br>
<br>
I take it that you must be equally disbelieving about the possibility of <br>
nanotechnology then? Something that exists in biology, but no way can it <br>
be possible in non-biological systems?<br>
<br>
I'm wondering how far does this go? There must be some line along the <br>
capabilities of biological systems, where on this side, non-bio systems <br>
can do the same thing, but on the other side, they can't. Any idea where <br>
this line might be?<br>
<br>
(to avoid misunderstanding, I don't actually think that any such line <br>
exists, or can exist)<br>
<br>
-- <br>
Ben Zaiboc<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>