Hi Natasha,<br><br>Quoting <natasha@natasha.cc><br><br>> For me, I am not a libertarian, an anarchist or a singulartarian.  I<br>
> am transhumanist and I support Extropy above all else.  I don't like<br>
> Extropy tethered to other stuff that is not expressly focused on life<br>
> expansion and well being.<br><br>>Precisely.  This does not mean that I am not political or that I do not<br>
>support the Singularity. I simply do not subscribe to any one political<br>
>party and I am not what is known as a singulartarian.  There are many<br>
>theorists, experts, activists and knowledgeable individuals of the<br>
>Technological Singularity who are not "singulartarian".<br><br>So, you are a Transhumanist who "supports" Extropy, but who is not a Singularitarian, but who (based on your comments far below,) believes that one day, Technological Singularity will be achieved  (I saw in a post coming up from Max, his thought's and the chart in the link that he provided, which clarified his ideas.)  You would fall within the "Voluntarist Emergent Surge" category, I assume?<br>
<br>>I think Kurzweil is not optimistic, I think he is an advocate of exponential<br>
>acceleration as a matter of technological fact.  De Garis is not negative, I<br>
>think he is presenting a particular theory that is more science fiction than<br>
>science fact.  I think Goertzel is mostly interested in AGI.  But all in<br>
>all, I think Max More's view on "surges" is the most appropriate theoretical<br>
>position on a Technological Singularity.<br><br>I would say that if Kurweil is advocating that technogical singularity as a matter of factually happening, it 'is' postitive, because we still are not positive that other factors will not intercede.  If I am right, and you are VESist (and I know from your words that I will quote below that you don't like "isms," but it does seem to fit,here,) then I can see why you might worry about the 'ultimate' end of this the exponential acceleration, as least as it happens too soon for your own concerns.<br>
<br>Whether or not De Garis concept is science fiction, I would consider people killing each other in a war that would kill billions of people 'quite' negative. Blindly horrific might be a better term.  Further, he seemed very serious about the idea  when he expressed it in "Transcendent Man," yet still willing to create AGI (after holding his breath.)  I would think that, if he thinks that billions of people may die, and you are working toward bettering human health and better standards of living, that you wouldn't look at his idea, science fiction or not, as being anything beyond a negative view how things go.  (Except if you believe the cost is worth the goal, either way, in which case I could see your point.)  <br>
<br>>This is a good question.  I never liked the term "extropians" or<br>
>extropianism" because Extropy is similar to a cybernetic approach and>within >this approach is the worldview of transhumanism, which is a<br>
>philosophy of Extropy. Certainly other people see that Extropy is the core<br>
>philosophy of transhumanism, which is okay too. But all in all transhumanism<br>
>cannot exist without Extropy because it is Extropy that presents the concept<br>
>of continuous expansion, critical thinking and practical optimism.<br><br>Based on your description, I would look at it the other way around.  The only thing that differentiates the two is that Extropy entails 'practical optimism,' whereas Transhumanism can be optimism, practical optimism, neutrality, practical negativism, or overtly negative.  This really would make Transhumanism the more encompassing genus, with Extropy as one of it's species. <br>
<br>>One issue here is the topic of negentropy, which still should be discussed and<br>
>revisited in the 21st century.  I don't recall any discussions on it for 10<br>
>years or so.<br><br>This sounds like it would be a form of TESism or even DESism; high levels of human development, falling short of creating the Singularity.  <br><br>>People do not call themselves extropians today because transhumanism is a<br>

>term that was promoted over Extropy in the late 1990s in order to push the<br>
>political views of the WTA and to promote Huxley as being the originator of<br>
>the ideas, which is entirely incorrect and a political move by WTA that<br>
>backfired on the organization and its principles.  Today we are more even<br>
>minded and Humanity+ has combined the beneficial work of WTA with ExI and<br>
>produced a more even minded organization that is inclusive rather than<br>
>exclusive.<br><br>Politics aside, it does sound like the Transhumanist term, whatever it started out as, has become more encompassing than the term 'Extropy.'<br><br>>Nevertheless, the term "transhumanist" is not as scary to the general public<br>

>as "extropian" and the term Extropy and extropian may gain momentum in later<br>
>years because thing change and no one really knows what ideas stick or<br>
>terms, etc.<br><br>I agree. I think this will help alleviate fears of most of the worlds population, including many in the scientific communities, that AGI will be completed and realistically end the human race, rather in a positive way or negative way. Extropy may become a "safety" code-word for high technology for human betterment that stops somewhere just short of creation of AGI.  <br>
<br>>Regarding Warwick, his ideas seem to fit quite nicely within the<br>
>"Transhumanist" conecept.  Unless I am missing something, he is seeking<br>
>progress in health, length of life, and development of superior qualities of<br>
>people through the use and physical adaptation of technology. In short, he<br>
>is seeking the evolution of mankind through technology.<br>
<br>
>Well, frankly these things have been promoted by transhumanists for decades!<br>
>t is just recently that the general public has become interested, including<br>
>Kevin.  While Kevin has been deeply engageding in cyborgization of his body<br>
>for a very long time and a forerunner in this domain, the ideas of<br>
>transhumanism are now posted it on his cyborg theory.  But when we think of<br>
>cyorg, it is Manfred Clynes' vision and cybernetics.  I do not know why<br>
>Kevin does not call himself a transhumanist but it seems that is may be<br>
>because  he is deeply invested in the term cyborg for his work.<br><br>Yes, people do get vested in terms, especially if they are heavily invested in fine distinctions, but I can understand because they do better help where we are all coming from on the spectrum of ideas.<br>
<br>>For goodness sakes, of course!  Someone who works on the Singularity and<br>
>writes about it, etc. is not necessarily a "Singularitarian".<br><br>Thank you very much for making this clear.  It means more to me than you know.<br><br>>You are correct and I could have said this, but it seemed obvious to me. I<br>

>apologize.<br>
<br>
>I  do not favor the dogma of Singularitarianism because it is a about "isms"<br>
>and not the Technological Singularity as I learned of it from Vernor Vinge<br>
>and as Extropy Institute introduced it as its conferences in the 1990s.<br><br>No need to apologize. It's the beauty of communication, right?   Regarding the "isms," again, the two I 'created' based on Max's chart just seem to fit.<br>
<br>>I am very interested in and lecture on the Singularity but I do not call<br>
>myself a Singularitarian because I do not think that superintelligences will<br>
>kill off our species and I do not think that Friendly AI is the answer, it<br>
>is just one theory.  I do think that humans will merge more and more with<br>
>machines and that humans will integrate with AGI.  I think we will have to<br>
>learn how to accept new intelligences that are not offspring of the homo<br>
>sapiens sapiens species and that will be both difficult and rewarding.<br>
<br>
>The central issues  about the Technological Singularity is about how we<br>
>adapt to our future, how we make wise choices, how we diversify and how we<br>
>help others understand what this means and to prepare for it. It will<br>
>happen, but most likely in surges rather than hitting a wall.<br>
<br>
>Best,<br>
>Natasha<br><br>Yes, we do have to deal with our theories.  I agree that we should attempt to prepare, make wise choices, and how we help others understand. (The diversify part, I don't know what you mean.)  But all eyes must be based on doing whatever is necessary to achieve AGI evolution: Technological Singularity, and we must do this as possible.  Extropy should be helpful, but should not slow down the process.  <br>
<br>My thought is, we either evolve, and soon, because one way or the other, we are going to end as a species, so we might as well contribute something positive to the universe.  Human beings, even evolved ones, are not capable of escaping the dangers that are harbored in this galaxy alone.  <br>
<br>If knowledge is to 'live," it must expand at a pace that Transhumans can't do, must be able to become agents outside of our galaxy, and must be able to manipulate space, time, and and all of the other dimensions themselves.  Beginning the process for highly, ever-evolving, ever-expanding, ever-living intelligence to live, by creating AGI, is the most just and high goal we can possibly give to the universe, and to life itself as a species.<br>
<br>In a way, it is our duty to create AGI.<br><br>Kevin<br><br>  <br><br><br><br>  <br><br><br><br><br><br>  <br><br><br><br><br><br><br><br><br><br><br><br><br>