<div dir="ltr"><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote">When robot machinery replaces even the slave labour and computer tech
replaces professional workers, then the consumer society is finished.
People without an income don't buy enough stuff to maintain the current system.</blockquote><div><br></div><div>I don´t want to be seen as a comunist, but, if AI is going to become real, we better start to change the current system before it trigger our extinction.<br>

<br></div><div>Alternatives?  I see two clear:<br><br></div><div>1.Working credits: You have an amount of work assigned and you can invest it wherever you want, so it can give you more money. And you can buy more working credits etc.<br>

<br></div><div>2.IA works, money is shared equally to every human. So everybody has food, health, existence is assured, education is assured and people doesn´t have to invest 1/3 of his life doing things to try to "keep flying" the other 2/3.<br>

<br></div><div>First is just an extension of today´s system, but everybody works in the same (invest work credits) and.. everybody works. And there are poor and rich people.<br><br></div><div>Second sounds like an utopy. Not only that: Is a utopy unbeatable, And indestructible, as long as IA police would keep the system running.<br>

<br><br><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Sun, Mar 16, 2014 at 1:42 PM, Tim Tyler <span dir="ltr"><<a href="mailto:tim@tt1.org" target="_blank">tim@tt1.org</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
  
    
  
  <div text="#ccffcc" bgcolor="#000000"><div class="">
    <div>On 15/03/2014 09:32, Bill Hibbard
      wrote:<br>
    </div>
    <br>
    <blockquote type="cite">
      My recent papers about technical AI risk conclude with:
      <br>
      <br>
        This paper addresses unintended AI behaviors. However,
      <br>
        I believe that the greater danger comes from the fact
      <br>
        that above-human-level AI is likely to be a tool in
      <br>
        military and economic competition among humans and thus
      <br>
        have motives that are competitive toward some humans.
      <br>
    </blockquote>
    <br></div>
    Military and economic competition between groups seem far more
    likely<br>
    to extinguish specific individuals to me too. It would therefore
    make<br>
    considerable sense for individuals to focus on these kinds of
    problem.<br>
    <br>
    The rationale given for focusing on other risk scenarios seems to be<br>
    that military and economic competition between groups is
    *relatively*<br>
    unlikely to destroy everything - whereas things like "grey goo" or<br>
    civilization-scale wireheading could potentially result in
    everyone's<br>
    entire future being destroyed.<br>
    <br>
    Any evolved predispositions humans have are likely to direct them<br>
    to focus on the first type of risk. I figure that these more
    personal<br>
    risks will receive plenty of attention in due course.<span class="HOEnZb"><font color="#888888"><br>
    -- <br>
    __________<br>
     |im |yler  <a href="http://timtyler.org/" target="_blank">http://timtyler.org/</a>  <a href="mailto:tim@tt1lock.org" target="_blank">tim@tt1lock.org</a>  Remove lock to
    reply.<br>
    <br>
  </font></span></div>

<br>_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br><div dir="ltr"><a href="http://OLVIDATE.DE" target="_blank">OLVIDATE.DE</a><br><a href="http://Tatachan.com" target="_blank">Tatachan.com</a><br><br><br></div>
</div>