<div dir="ltr"><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">Before I reply to this thread, please John or someone, answer this;</div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">Is an AI always programmed to take the most likely route to success - the highest probability, once it has considered alternative routes? People might have other motivations.   (to me, this gets us directly into the free will problem, which y'all might not want to repeat)  </div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:comic sans ms,sans-serif;font-size:small;color:#000000">bill w</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Apr 7, 2016 at 7:11 AM, Mike Dougherty <span dir="ltr"><<a href="mailto:msd001@gmail.com" target="_blank">msd001@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Wed, Apr 6, 2016 at 9:56 PM, Henry Rivera<br>
<<a href="mailto:hrivera@alumni.virginia.edu">hrivera@alumni.virginia.edu</a>> wrote:<br>
> Even if we concede moving of goalposts being somewhat<br>
> unreasonable/unfair, I'm with the skeptic who posted here recently<br>
> representing the opposition, I forget who, in believing we are very<br>
> far from developing strong AI, if it's even possible. My take is that<br>
> conscious machines are really what people are thinking of when they<br>
> refer to AI, not superior automated Go decision-tree-machines. People<br>
> will argue about whether (implied) strong AI is possible on the<br>
> internet until this is resolved, but it's an empirical question<br>
> ultimately. So time will tell. This article I saw recently sums up the<br>
> problems with strong AI well, I think. The author references Searle<br>
> and Feynman.<br>
<br>
</span>I suspect that even human-level AI will continue arguing on the<br>
internet that AI is or is not capable of consciousness.  By design,<br>
human-level AI would still fight over qualia... just like humans.<br>
(though perhaps, there would be novel approaches leading to the<br>
declaration of ineffability)<br>
<div class="HOEnZb"><div class="h5">_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</div></div></blockquote></div><br></div>