<br><br><span class="gmail_quote">From: <b class="gmail_sendername">Stathis Papaioannou</b> <<a href="mailto:stathisp@gmail.com">stathisp@gmail.com</a>><br>Date: 25-May-2007 20:03<br>Subject: Re: [ExI] Unfrendly AI is a mistaken idea.
<br>To: ExI chat list <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>><br><br></span><br><br><div><span class="q"><span class="gmail_quote">On 25/05/07, <b class="gmail_sendername">
Lee Corbin</b> <<a href="mailto:lcorbin@rawbw.com" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">lcorbin@rawbw.com</a>> wrote:<br><br></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">

> Why not just have the happiness at no cost? You might say,<br>> because being an intelligent being has a certain je ne sais quoi,<br>> adding richness to the raw emotion of happiness. However,<br>> if you have complete access to your mind you will be able to
<br>> pin down this elusive quality and then give it to yourself directly...<br><br>Yes, heh, heh.  But that seems a strategy good only for the very<br>short term. Unless you mix in a tremendous urge to advance (which
<br>
not coincidentally most of us already possess), then you fail ultimately<br>by incredible orders of magnitude to obtain vastly greater satisfaction.</blockquote></span><div><br>Why can't you get satisfaction without advancement? Unless your laziness had some detrimental effect on survival you could probably get satisfaction equivalent to that of any given scenario directly. A possible counterexample would be if the maximal amount of subjective satisfaction were proportional to the available computational resources, 
i.e., you could experience twice as much pleasure if you had twice as big a brain. This might lead AI's to consume the universe in order to convert it into computronium, and then fight it out amongst themselves. However, I don't think there is any clear relationship between brain size and intensity of emotion.
<br></div><span class="q"><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Isn't that really what repels us about the image of a wirehead? No
<br>progress?
</blockquote></span><div><br>Yes, but it doesn't repel everyone. Heaven is a place of great pleasure and no progress, and lots of people would like to believe that it exists so that they can go there. The difference between Heaven and wirehead hedonism or drug addiction is that in Heaven God looks after you so that you don't starve to death or neglect your dependants. Retiring to eternal bliss in a big computer maintained by dedicated AI systems would be the posthuman equivalent of Heaven.
<br></div><span class="q"><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">But besides, I happen to have a very strong *predilection*<br>
for learning and finding truth. "To delight in understanding"
<br>has long been my maxim for what I ultimately wish for. So,<br>even though you're right and I've been motivated to feel that<br>way by genetic systems out of my direct control (so far), I<br>would still choose to go on getting my raw pleasure
<br>indirectly.<br></blockquote></span></div><br>This sort of legacy thinking is the only hope for continuing progress into the indefinite future. There is no reason why you should be able to experience *less* pleasure if you assign it to something you consider worthwhile rather than to idleness, so why not do so? Moreover, there would be less reason to try to gain pleasure or satisfaction by doing something bad if you could as easily get the same reward by doing something good or doing nothing. The majority of people who deliberately hurt others do so because they don't consider the badness of their action to outweigh their desire for the expected reward.
<br clear="all"><br><br>-- <br><span class="sg">Stathis Papaioannou
</span><br clear="all"><br>