Intelligenza artificiale batte 99,8% avversari a StarCraft

Dopo aver sconfitto l’uomo a scacchi e alla dama cinese, l’intelligenza artificiale batte il 99.8% degli avversari umani nel popolare videogioco
StarCraft II, finendo tra i migliori giocatori del mondo. E’
stato possibile grazie al nuovo algoritmo AlphaStar che, con il
suo addestramento pari a 200 anni di partite, non conosce rivali
e si propone come una palestra unica per le future auto a guida
autonoma o per i robot industriali. Descritto sulla rivista
Nature, l’algoritmo e’ stato messo a punto dagli informatici
guidati da Oriol Vinyals, dell’azienda DeepMind di Google, la
stessa che ha insegnato ai sistemi di intelligenza artificiale a
giocare a Go e a poker, a risolvere il cubo di Rubik, nonche’ ad
affrontare la versione semplificata di un gioco semplice come
‘Rubabandiera’.
“Questo e’ un sogno diventato realta’: AlphaStar ha raggiunto il
livello di Gran Maestro. Sono stato un giocatore di StarCraft
piuttosto serio 20 anni fa e sono affascinato dalla complessita’
del gioco” ha rilevato Vinyals. Questo, ha aggiunto, “ci mostra
che l’apprendimento attraverso l’imitazione puo’ ottenere
risultati migliori di quanto immaginato e non vedo l’ora di
iniziare a esplorare i modi in cui possiamo applicare queste
tecniche alle sfide del mondo reale”.
Creare algoritmi in grado di affrontare giochi che richiedono
strategie complesse apre infatti a molte applicazioni: “dalla
guida autonoma, all’ambiente industriale dove c’e’ da sviluppare
un processo, fino agli assistenti vocali, in modo che siano in
grado di rispondere efficacemente alle domande degli utenti”,
hanno detto all’ANSA gli esperti della Scuola Superiore
Sant’Anna di Pisa, l’ingegnere informatico Tommaso Cucinotta e
l’informatico Marco Vannucci. In quest’ottica StarCraft II e’
un’ottima ‘palestra’ per l’intelligenza artificiale perche’ e’ un
gioco di fantascienza molto complesso in cui i giocatori
competono l’uno contro l’altro per controllare tre razze aliene.
Precedenti giocatori artificiali non sono riusciti a competere
con i campioni umani, neanche quando sono state semplificate le
regole del gioco.
Gli informatici di Google ci sono riusciti grazie all’algoritmo
di apprendimento AlphaStar, in cui diversi giocatori virtuali,
competono l’uno contro l’altro, generando una serie di strategie
in continuo adattamento. L’algoritmo si e’ allenato a imitare i
giocatori piu’ bravi: “e’ stato addestrato – hanno detto Cucinotta
e Vannucci – su circa un milione di partite con l’uomo, in cui
il giocatore virtuale ha imparato a imitare le mosse dei
migliori giocatori. Quindi ha imparato a non fare le mosse di
chi si trova a perdere ed e’ riuscito a sconfiggere molti
avversari umani imparando la strategia migliore e mettendola in
campo”. Nel complesso, l’algoritmo e’ stato addestrato per
l’equivalente di 200 anni di partite e “va detto – hanno
concluso i due esperti – che un’esperienza di gioco cosi’ lunga
non ce l’ha nessun giocatore umano”.

Please follow and like us:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *