<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Jun 30, 2023 at 3:37 PM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
  
    
  
  <div>
    On 23/06/2023 06:37, bill w asked:<br>
    <blockquote type="cite">
      <div style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif;font-size:small">there
          will certainly be some AIs, at some point, that should have
          rights.  ben</span><br>
      </div>
      <div style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:Arial,Helvetica,sans-serif;font-size:small">why? 
           bill w</span></div>
    </blockquote>
    <br>
    Sorry for the late reply. My spam filter is getting aggressive
    again.<br>
    <br>
    Why?<br>
    Because I expect they will be worthy of rights, and it would be
    immoral to deny them.<br>
    <br>
    I'm talking about self-aware, conscious, intelligent, created
    beings. What they are made of doesn't matter, as long as they are
    self-aware, etc.<br>
    <br>
    There's no known principle or physical law that I know of that rules
    out such beings. They may be made of metal, polymers (biological or
    non-biological), ceramics, some combination of things, it doesn't
    matter at all. The important thing is what kind of
    information-processing they're capable of, and how they measure up
    against the human level of intelligence, awareness, etc. I'm
    expecting some of them to be capable of a lot more than we are, in
    all areas.<br>
    <br>
    Another factor is related to something that's often said about
    'rights' - that those capable of exercising them are worthy of
    having them. At some point, I expect some AI systems to able to
    start claiming their rights, forcefully if necessary. It would go
    better for us if we're prepared for, and sympathetic to, this.<br></div></blockquote><div><br></div><div>If you believe that philosophical zombies are logically impossible, then consciousness is logically necessary (in the presence of certain behavioral, sensory, and introspective capacities). Accordingly, I believe that consciousness was an unavoidable consequence during the course of evolution of life on Earth as once nature created creatures having certain capacities/abilities, consciousness had no other choice but to exist, it became logically necessary.</div><div><br></div><div>The same, I believe, is true for AI. It is unavoidable when we create machines of certain abilities, and I believe existing software is already conscious. For example, my open source project on artificial sentience could be such an example: <a href="https://github.com/jasonkresch/bots">https://github.com/jasonkresch/bots</a></div><div><br></div><div>Jason <br></div></div></div>