<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Sat, Mar 12, 2016 at 1:27 PM, William Flynn Wallace <span dir="ltr"><<a href="mailto:foozler83@gmail.com" target="_blank">foozler83@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><span style="color:rgb(0,0,0);font-family:'comic sans ms',sans-serif">You know that I am barely a beginner re AI, yet I have a very long association with intelligence and its measurement and correlates.</span><div dir="ltr"><div style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">One prominent aspect of intelligence is the ability not to do things - to inhibit actions.  A large percentage (?) of our neurons are inhibitory in nature and others are able to inhibit at times.  Much of what we call maturity is the intelligence to restrain ourselves from acting out every impulse and emotion.</div><div style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">If you were to walk up to people you know or strangers on the street,and ask them to spit in your face, what would happen?  My guess is that you won't get spit on even once unless you ask a bratty two year old.</div><div style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">What is the equivalent in AI?  Are there instructions you can feed to one and it will fail to carry them out?  Like HAL?</div></div></div></div></blockquote><div><br></div><div>That's possible - even common, sometimes - with current systems.  It's usually called "safety", or some variant.<br><br></div><div>For example, the rockets that CubeCab is designing are intended to fly along a certain trajectory...but once they leave the aircraft they're autonomous, having to make their own decisions.  Should they detect that they are significantly off course enough, they are programmed to stop flying.<br><br></div><div>I'm not sure I should get into details of how this happens (due to the ITAR laws: details might qualify as "technical data"), or the many redundant checks that go beyond just "programming" to make sure no rogue rocket steers itself into a city.  But the techniques for this are decades old and widely accepted.<br></div></div></div></div>