L’outil d’intelligence artificielle (IA) développé par DeepMind, une filiale de Google, a réussi à battre pour la première fois deux champions du sport électronique ou eSports, après avoir appris à jouer le jeu vidéo StarCraft II “.

L’intelligence artificielle peut battre des humains dans des jeux ?

Dans le cadre d’un programme appelé AlphaStar, DeepMind a développé un réseau d’apprentissage neuronal profond formé directement à partir des données brutes de “StarCraft II”, comme l’a expliqué la société Google dans une déclaration.

Dans une série de tests le 19 décembre, AlphaStar a battu le joueur polonais Grzegorz “MaNa” Komincz et son équipier, Dario “TLO” Wünsch (Allemagne), membres de Team Liquid et son partenaire professionnel. Ce jeu s’est déroulé sur une carte de jeu compétitive sans restriction de règles.

Un grand “challenge”

La saga du jeu vidéo StarCraft, un jeu de stratégie en temps réel développé par Blizzard, a été considéré par DeepMind comme un “gros challenge” en raison de la complexité du jeu, de sa mécanique et de l’ampleur des cartes, qui rend difficile l’entraînement aux systèmes automatiques à être compétitifs.

Pour former votre IA, DeepMind a utilisé les données brutes de l’interface StarCraft II à travers deux techniques connues sous le nom d’apprentissage supervisé et d’apprentissage renforcé. L’algorithme de

Google est un algorithme d’apprentissage multiple qui a été initialement utilisé pour former le réseau neuronal d’AlphaStar grâce à un apprentissage supervisé, avec lequel il apprend des joueurs humains d’autres jeux vidéo Blizzard et de leur système “macro” économie et “micro” ressources. Par la suite, les chercheurs ont soumis AlphaStar à un processus d’apprentissage renforcé, pour lequel une ligue continue de “StarCraft II” a été créée avec de vrais joueurs concurrents, ce qui a créé une carte globale avec les stratégies choisies par les gens. AlphaStar a ensuite analysé le taux de succès de chaque stratégie et ses éventuelles tactiques de contre-attaque. Avec la ligue StarCraft, AlphaStar a accumulé plus de 200 ans d’expérience de jeu réel, ajouté plus de 14 jours.

Le système de Google a réussi à battre les professionnels “MaNa” et “TLO”, ce qui arrive pour la première fois avec des joueurs “eSports” ou DeepMind esports, et aussi avec un score de 5-0. Pour ce faire, il a profité d’une moyenne plus élevée d’actions par minute, de dizaines de milliers contre des centaines, et a surmonté les limites de l’algorithme, comme un délai de 350 millisecondes entre l’observation et l’action. Les tests actuels de DeepMind avec “StarCraft II” ne sont pas les premiers de l’IA de Google avec des jeux vidéo, qui joue déjà d’autres titres comme “Dota 2”, et, depuis l’été dernier, aussi “Quake III” en mode “Capture the Flag”.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici