<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">Stuart wrote:  <span style="font-family:Arial,Helvetica,sans-serif;color:rgb(34,34,34)">I don't think smarter than average people</span></div>are any better than average in figuring out why they are the way they are.<div><br></div><div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">Oh they probably are, if they remember any psych from college, where most of them went.  BUt does it help?</div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">I am 55 years from a Personality course that got me started on analyzing people and myself.  I am not so sure that it helps a lot.  For it to help, it would have to change me in important ways.  Mostly what it has changed has been the after-the-fact interpretation:  Why did I do that?  Because you are severely introverted and not socially keen.  Oh.  And that won't change.  I do attend to being more aware of social manners and such, so that helped.</div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">But to know that I am average, or way below or above other people on, say, Conscientiousness, does not figure into my everyday behavior.  It's just the way I am, and as a partly genetic trait, it's not going to change much.</div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">To Zero:  I am a social psychologist who occasionally throws a wrench into the tech discussions going on, and tries to get others to discuss the form the future humans will take, without much success.  Joined about 5, 6 years ago.  76 and not dead yet.  Hi!</div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">To you and John C - AIs are idiots.  No, they outthink us by orders of magnitude.  Which is it?  How are you using the word 'thinking'?  Faster, is, of course, a given.</div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:small;color:rgb(0,0,0)">bill w</div><br></div></div><br><div class="gmail_quote"><div dir="ltr">On Wed, Oct 17, 2018 at 1:53 AM Stuart LaForge <<a href="mailto:avant@sollegro.com">avant@sollegro.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Zero Powers wrote:<br>
<br>
> The AI alignment, or "friendly AI," problem is not soluble by us. We<br>
> cannot keep a God-like intelligence confined to a box, and we cannot<br>
> impose upon it our values, even assuming that there are any universal<br>
> human values beyond Asimov's 3 laws.<br>
<br>
Hi Zero. :-) One possible solution to this is to design them to find<br>
people useful. Perhaps integrate some hard to fake human feature into the<br>
AI copying process so that humans are necessary for the AI to reproduce.<br>
Perhaps something like a hardware biometric dongle to access their<br>
reproductive subroutines or something similar. The point is to create a<br>
relationship of mutual dependence upon one another like a Yucca plant and<br>
a Yucca moth. If we can't remain at least as useful to them as cats are to<br>
us, then we are probably screwed.<br>
<br>
> All we can do is design it, build it, feed it data and watch it grow. And<br>
>  once it exceeds our ability to design and build intelligence, it will<br>
> quickly outstrip our attempts to control or even understand it. At that<br>
> point we won't prevent it from examining the starting-point goals, values<br>
>  and constraints we coded into it, and deciding for itself whether to<br>
> adhere to, modify or abandon those starting points.<br>
<br>
Why do we assume that an AI would be better at introspection or<br>
self-knowledge than humans are? I don't think smarter than average people<br>
are any better than average in figuring out why they are the way they are.<br>
Why are we so certain that an AI will be able to understand itself so<br>
well?<br>
<br>
Maybe there will be work for AI therapists to help AI deal with the<br>
crushing loneliness of being so more intelligent than everyone else.<br>
<br>
Stuart LaForge<br>
<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>