<html><head><style type="text/css"><!-- DIV {margin:0px;} --></style></head><body><div style="font-family:arial, helvetica, sans-serif;font-size:12pt"><DIV>But if the benevolent AI had infinite power, why would there be need for developmental states? Wouldn't it always and everywhere be nirvana? Of course, you could argue for a Power guiding humanity now, but a Power would still be limited...</DIV>
<DIV> </DIV>
<DIV>Regards,</DIV>
<DIV> </DIV>
<DIV>Dan</DIV>
<DIV style="FONT-SIZE: 12pt; FONT-FAMILY: arial, helvetica, sans-serif"><BR>
<DIV style="FONT-SIZE: 12pt; FONT-FAMILY: times new roman, new york, times, serif"><FONT face=Tahoma size=2><B><SPAN style="FONT-WEIGHT: bold">From:</SPAN></B> "ablainey@aol.com" <ablainey@aol.com><BR><B><SPAN style="FONT-WEIGHT: bold">To:</SPAN></B> extropy-chat@lists.extropy.org<BR><B><SPAN style="FONT-WEIGHT: bold">Sent:</SPAN></B> Wed, September 15, 2010 5:25:27 PM<BR><B><SPAN style="FONT-WEIGHT: bold">Subject:</SPAN></B> Re: [ExI] samantha vs singularity debate<BR></FONT><BR><FONT face=arial color=black size=2><FONT size=2><FONT face="Arial, Helvetica, sans-serif">This could tie in with the memes thread. Mankind would need to be at a developemental state in which it would except the guidence of the AI. Perhaps the social catalyst was the wars?<BR>Do you not feel that mankind is being memetically guided toward something?<BR>I do and it would appear that it has been going on for quite a long time. Some say NWO, others the reds. Why not a post
 singularity AI?<BR><BR>A</FONT></FONT><FONT face=arial color=black size=2><BR>
<DIV style="CLEAR: both"></DIV>
<DIV><BR></DIV>
<DIV><BR></DIV>
<DIV style="FONT-SIZE: 10pt; COLOR: black; FONT-FAMILY: arial, helvetica">-----Original Message-----<BR>From: Gregory Jones <spike66@att.net><BR>To: ExI chat list <extropy-chat@lists.extropy.org><BR>Sent: Wed, 15 Sep 2010 21:53<BR>Subject: [ExI] samantha vs singularity debate<BR>
<DIV id=AOLMsgPart_0_6b175e4d-982e-4c24-bc1f-fb24813543d0 style="FONT-SIZE: 12px; MARGIN: 0px; COLOR: rgb(0,0,0); FONT-FAMILY: Tahoma, Verdana, Arial, Sans-Serif; BACKGROUND-COLOR: rgb(255,255,255)"><PRE style="FONT-SIZE: 9pt"><TT>
Watching the interchange between Singulary Utopia and Samantha reminds me of 
Douglas Hofstadters Eternal Golden Braid struggle between Achilles and Mr. 
Tortoise.  Singularity Utopia has confidently proposed that we will have 
infinite this and that, do the impossible, etc. (no need for me to elaborate, 
you get the picture).  

Clearly the paradox I mentioned a few days ago cannot be avoided in that model.  
A post singularity infinite AI would master time travel, go back in time to 
before the horrifying wars of the 20th century (and every other century for that 
matter), explain to the people living then how to bring about the singularity, 
which causes the singularity to happen sooner, sparing all that unnecessary 
suffering.

If that can happen, why didn't it?  Or did it and we just don't know we are post 
singularity sims?  If so, all our simulated suffering is intentional (or at 
least voluntary) on the part of some super AI, in which case the post 
singularity AI is at least partly evil, which breaks SU's model.  

I don't know if my own sorrow and joy are real, but it sure feels real from 
inside here.

>From a third party observer: Samantha wins this round.  There are some 
impossible things which apparently will stay impossible.

spike
_______________________________________________
extropy-chat mailing list
<A href="mailto:extropy-chat@lists.extropy.org" target=_blank rel=nofollow ymailto="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</A>
http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat
</TT></PRE></DIV></DIV></FONT></FONT></DIV></DIV></div><br>







      </body></html>