<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Feb 23, 2023, 2:31 PM William Flynn Wallace via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:large;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:large;color:#000000">Thanks, Ben - another question:  why do we, or they, or somebody, think that an AI has to be conscious to solve the problems we have?  Our unconscious mind solves most of our problems now, doesn't it?  I think it does.  bill w</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"></blockquote></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Why do we assume our "unconscious mind" is unconscious, rather than another mind whose consciousness we don't have access to?</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br></blockquote><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br></blockquote><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br></blockquote>.<br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Feb 23, 2023 at 12:24 PM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">bill w asked:<br>
<br>
 >Three silly questions: how would you know if you had created a <br>
conscious mind? Why do you want to do that? What makes that necessary? <br>
bill w<br>
<br>
<br>
I like silly questions! (some of them anyway)<br>
<br>
1) How would you know?<br>
Probably you would never know for sure, just as you don't know for sure <br>
that I'm a conscious mind. But I'd say we'd use the same criteria as we <br>
do with each other, or for the existence/non-existence of gods, so while <br>
we never absolutely know for sure, we can make a damned good guess, <br>
based on the evidence at our disposal.<br>
<br>
2) Why do it?<br>
Because we're transhumanists, and want the sum total of self-awareness <br>
and intelligence in the universe to increase. Because we recognise the <br>
severe limitations of biological life, and if we can create artificial <br>
minds, we can overcome these limitations. Because we know that humans <br>
have a limited lifespan, both as individuals and as a species, and this <br>
is a way of going way beyond that.<br>
<br>
3) What makes it necessary?<br>
Well, that depends on your priorities. People who think that humanity is <br>
a stain on the world and things would be better without it, probably <br>
think it's not only not necessary, but undesirable. I think it's <br>
necessary because we are tragically weak, fragile and confused, and <br>
anything we can do to correct or side-step that is a good thing. <br>
Artificial minds are our chance to pass down our most significant <br>
quality to the future, in a form that has a chance of surviving and <br>
thriving in the long-term (very long-term, as in billions of years and <br>
more).<br>
<br>
Oh, and it may be the only realistic way to achieve mind uploading. We <br>
probably aren't capable of figuring it out, or at least of actually <br>
doing it, by ourselves.<br>
<br>
And it may be the only way we're going to get out of the many pickles <br>
we're getting ourselves into, too. Maybe we need a non-human perspective <br>
to solve the various seemingly unsolvable problems we've got. I don't <br>
need to make a list, I'm sure you can think of plenty.<br>
<br>
Ben<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>