Intelligenza artificiale di Google ha sconfitto per la prima volta un giocatore professionista di Go 29/01/2016

Un sistema di intelligenza artificiale ottimizzato per affrontare l’antico gioco da tavolo cinese Go ha sconfitto per la prima volta un giocatore professionista, il campione europeo Fan Hui di origine cinese ma in seguito naturalizzato francese. La ricerca è documentata in un paper pubblicato dal numero di questa settimana di Nature.

Il sistema di Google dedicato al Go, che è stato ribattezzato AlphaGo, ha sconfitto per 5-0 Hui, che è classificato nel rango 2-dan, in un match che si è tenuto nello scorso ottobre negli uffici di Londra di DeepMind, la sussidiaria di Google che si occupa di Deep Learning e ricerche sull’intelligenza artificiale.

AlphaGo ha affrontato Hui su una “scacchiera” dotata di una griglia 19 × 19 senza beneficiare di alcun handicap. Dopo questa sfida Google punterà ancora più in alto, visto che è in programma un match con il miglior giocatore di Go al mondo, il coreano Lee Sedol. Il match si terrà a Seoul nel mese di marzo.

“Vincere il match di marzo sarebbe come sconfiggere Garry Kasparov a scacchi”, ha detto Demis Hassabis, co-fondatore di DeepMind. “Lee Sedol è il miglior giocatore di Go degli ultimi 10 anni e batterlo vorrebbe dire che AlphaGo è il miglior giocatore di Go al mondo”.

Anche se il Go ricorda in certi aspetti gli scacchi, pone sfide più difficili sia per l’intelligenza artificiale che umana perché ci sono molti più possibili movimenti realizzabili per ogni turno e molti più esiti possibili. Affrontare sfide di questo tipo non si traduce semplicemente nel migliorare i sistemi procedenti, come il famoso DeepBlue che sconfisse Kasparov a scacchi nel 1997.

DeepMind ha infatti usato delle tecniche di Deep Learning per affinare il suo AlphaGo, le quali prevedono la creazione di reti neurali di dati, sulla base dei quali fare delle inferenze per gestire i nuovi dati in arrivo. Google lavora su queste tecnologie ormai da diversi anni nel tentativo di rifinire soprattutto gli algoritmi alla base dei suoi motori di ricerca, e allo scopo ha acquisito diverse compagnie come DNNresearch, Jetpac e la stessa DeepMind. Tecnologie di Deep Learning sono ormai utilizzate anche dai vari Baidu, Bing e Facebook.

Per stabilire quale mossa realizzare AlphaGo cerca di prevedere cosa potrà fare l’essere umano con cui sta giocando andando ad analizzare un database in cui sono state registrate le mosse di alcuni fra i migliori giocatori di Go. I dati provengono dal KGS Go Server e riguardano complessivamente circa 30 milioni di posizioni. A una base di diversi livelli di rappresentazione, corrispondenti a gerarchie di caratteristiche di fattori o concetti, l’algoritmo poi aggiunge una componente di apprendimento rinforzato, una tecnica con la quale si punta a insegnare alla macchina nuovi tipi di comportamenti attraverso un tipo di apprendimento per prove ed errori.

L’algoritmo di Google fonde i due tipi di rete neurale così ricavati, quindi Deep Learning e apprendimento per prove ed errori, usando un algoritmo di ricerca ad albero Monte Carlo, che comunemente viene usato per la creazione di bot capaci di giocare a Go. AlphaGo ha affrontato alcuni fra i migliori di questi bot per Go e ha vinto 494 match su 495 contro i vari Crazy Stone, Fuego, Pachi, e Zen.

“Le nostre tecniche di intelligenza artificiale in futuro potranno essere usate in ambiti diversi dal Go, anche per importanti problemi della vita reale”, ha detto Hassabis. Il quale ha un’estrazione abbastanza particolare, visto che nasce come programmatore di videogiochi ed è alla base di alcuni dei primi successi di Peter Molyneux come Theme Park e Black & White, prima di fondare Elixir Studios e creare in prima persona titoli come Republic: The Revolution ed Evil Genius.

Fonte: Hardware Upgrade