<div class="gmail_quote">On 12 February 2013 10:38, Anders Sandberg <span dir="ltr"><<a href="mailto:anders@aleph.se" target="_blank">anders@aleph.se</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

  

    
  
  <div text="#000000" bgcolor="#FFFFFF">
    Personally I think machine rights make sense when the machine can
    understand them, something that is pretty far away (AGI complete?).
    Some machines might be moral patients (i.e. we might not be morally
    allowed to treat them badly, for some kinds of bad) much earlier - I
    am arguing this especially for early uploading experiments, but it
    might apply to some other systems.<br clear="all"></div></blockquote></div><br>Mmhhh. Having "rights" and being moral agents (or patients) are entirely different things. <br><br>Corporation, eg, have rights, but are not moral agents per se. Slaves are moral agents but do not have rights.<br>
<br>As to machines, I think we will give them "rights" as soon as it becomes a simpler way to describe what can or cannot legally be done with them. Irrespective of their "moral" position.<br><br>-- <br>
Stefano Vaj