<div dir="ltr">This is all really fascinating to follow, and seems like a huge leap forward. Is there some kind of equivalent to Moore's law for describing the progress of AI? If not there probably should be, as we are hopefully nearing a similar exponential growth in AI.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Mar 10, 2016 at 3:49 AM, BillK <span dir="ltr"><<a href="mailto:pharos@gmail.com" target="_blank">pharos@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">After more than four hours of tight play and a rapid-fire end game,<br>
Google’s artificially intelligent Go-playing computer system has won a<br>
second contest against grandmaster Lee Sedol, taking a<br>
two-games-to-none lead in their historic best-of-five match in<br>
downtown Seoul.<br>
<<a href="http://www.wired.com/2016/03/googles-ai-wins-pivotal-game-two-match-go-grandmaster/" rel="noreferrer" target="_blank">http://www.wired.com/2016/03/googles-ai-wins-pivotal-game-two-match-go-grandmaster/</a>><br>
<br>
Quote:<br>
<br>
A New Autonomy<br>
<br>
This is particularly true of AlphaGo, which is driven so heavily by<br>
machine learning—technologies that allow it to learn tasks largely on<br>
its own. Hassabis and his team originally built AlphaGo using what are<br>
called deep neural networks, vast networks of hardware and software<br>
that mimic the web of neurons in the human brain. Essentially, they<br>
taught AlphaGo to play the game by feeding thousands upon thousands of<br>
human Go moves into these neural networks.<br>
<br>
But then, using a technique called reinforcement learning, they<br>
matched AlphaGo against itself. By playing match after match on its<br>
own, the system could learn to play at an even higher level—perhaps at<br>
a level that eclipses the skills of any human. That’s why it produces<br>
such unexpected moves.<br>
<br>
During the match, the commentators even invited DeepMind research<br>
scientist Thore Graepel onto their stage to explain the system’s<br>
rather autonomous nature. “Although we have programmed this machine to<br>
play, we have no idea what moves it will come up with,” Graepel said.<br>
“Its moves are an emergent phenomenon from the training. We just<br>
create the data sets and the training algorithms. But the moves it<br>
then comes up with are out of our hands—and much better than we, as Go<br>
players, could come up with.”<br>
------------<br>
<br>
This really sounds like a big leap forward in AI.<br>
<br>
<br>
BillK<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div><br></div>