<div dir="ltr">On Sat, Nov 1, 2014  Keith Henson <span dir="ltr"><<a href="mailto:hkeithhenson@gmail.com" target="_blank">hkeithhenson@gmail.com</a>></span> wrote:<br><div class="gmail_extra"><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote"><span class="">
>> The fact that the Halting Problem shows that there is no general way of solving certain large problem classes doesn't tell us anything about the *practical* unworkability of top level goals.</span><br><span class=""></span></blockquote><span class="">
<br>
</span>> It seems kind of remote to apply halting to an AI that was interacting with the real world.  We don't run into that problem</blockquote><div><br></div><div>You've never wanted to solve a problem but made no apparent progress and so decided to switch your attention to a different problem? <br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">> and we have vast numbers of systems that just wait till something happens (like a keystroke).<br></blockquote><div><br></div><div>Well yes, the AI could just sit there and do nothing as if the power connection to it were cut and then the AI would never disobey and never get bored, but it will never do anything else either. So why bother building it? <br><br></div><div>  John K Clark<br></div><div><br></div></div></div></div>