Overblog Suivre ce blog
Editer l'article Administration Créer mon blog
5 juillet 2009 7 05 /07 /juillet /2009 16:51

http://static.inria.fr/www/videos/Rocquencourt/modele-algo/20090604-Modele-Algo-Olivier-Teytaud.zip

Le jeu de Go est devenu un challenge classique en intelligence artificielle,
par sa grande dimension et sa complexité. En particulier, les humains restent
considérablement meilleurs que les ordinateurs. Néanmoins, l'écart s'est
considérablement réduit ces dernières années grâce à des techniques nouvelles
et généralistes, i.e. utilisables de manière générique pour des problèmes de
décision séquentielle dans l'incertain: tout l'intérêt de cette recherche est dans le fait
que la technique est applicable à une grande gamme de problèmes:
Fouille d'arbres Monte-Carlo.

                                          

On présentera l'algorithme, appelé "Monte-Carlo Tree Search" (ou "Upper
Confidence Trees" pour l'une de ses variantes), ses différences et ses
ressemblances avec les algorithmes usuels, et ses forces et faiblesses, très
apparentes sur le jeu de Go, ainsi que diverses applications loin des jeux.

Les bandits et le Go.
On présentera enfin un survol des formules dites de "bandit", abondamment
utilisées comme brique de base dans le Monte-Carlo Tree Search.

Vidéo:
http://static.inria.fr/www/videos/Rocquencourt/modele-algo/20090604-Modele-Algo-Olivier-Teytaud.zip
 

 

Ci-dessous à droite la première victoire contre un humain professionnel en jeu de Go 19x19, à 9 pierres de handicap:


Gens:
  • Jean-Yves Audibert
  • Pierre Audouard
  • Vincent Berthier
  • Guillaume Chaslot
  • Christophe Fiter
  • Sylvain Gelly
  • Jean-Baptiste Hoock
  • Rémi Munos
  • Motoki Noguchi
  • Arpad Rimmel
  • Olivier Teytaud
  • Yizao Wang
  • Un grand merci au séminaire "Le modèle et l'algorithme" de Rocquencourt
  • Pardon pour les oublis probables!

Partager cet article

Repost 0
Published by teytaud - dans Recherche
commenter cet article

commentaires