<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sat, Mar 28, 2020 at 6:46 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</span><br></div></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>One thing that I would probably want to do would be to define a set of conditions under which automatic systems would override my conscious decisions. Eg., if  the decision threatened my survival.</i></blockquote><div><br></div><div class="gmail_default" style=""><font face="arial, helvetica, sans-serif"></font><font size="4">In other words it would be a bad idea to have total control over your own emotional control panel because unrestrained positive feedback rarely produces good results. Like electronic junkies uploads would likely slide the happiness lever all the way to the right and just sit there and do nothing but be happy. Getting rid of negative emotions like boredom would be an even worse idea, then you'd become permanently fixated on impossible tasks like a malfunctioning computer that needs rebooting.</font></div><div class="gmail_default" style=""><font size="4"><br></font></div><div class="gmail_default" style=""><font size="4"> John K Clark</font></div>
</div></div>