Siamo stati superati dalle macchine anche a Go?
Io non ho mai capito come si gioca a Go. Non tanto le regole – quelle sono facili – ma proprio la strategia da seguire. A quanto pare, però, il programma di Google AlphaGo l’ha “capito”: perlomento, dopo avere stracciato 5-0 il campione europeo, ha appena vinto la seconda partita consecutiva contro Lee Sedol, che anche se non è il “campione mondiale di Go” (almeno a inizio 2016) è il secondo nel ranking mondiale.
Quello che trovo interessante nella storia non è tanto il modo con cui è stato costruito AlphaGo. Certo, come si può leggere nell’articolo di Nature, l’approccio non è quello convenzionale dei programmi di intelligenza artificiale che giocano. Il Go probabilmente ha troppe mosse possibili per riuscire a fare un programma di ricerca ad albero, per quanto si possano tagliare le mosse meno promettenti, e quindi i ricercatori di Google hanno adottato un approccio misto: da un lato usa un modello ad albero “stile Montecarlo”, nel senso che non prova tutte le possibilità ma ne sceglie alcune più o meno a caso, e dall’altro usa una rete neurale a più livelli interni (il “deep” di Deep Neural Network significa quello, che credevate?), anzi due reti: una per suggerire la mossa migliore, l’altra per predire il vincitore. Dopo un allenamento con 30 milioni di posizioni, l’hanno fatto giocare molto a lungo contro sé stesso, per impratichirsi: poi ha fatto una gara contro altri programmi di intelligenza artificiale, vincendo 499 partite su 500, e infine ha iniziato a stracciare il campione europeo Fan Hui.
Ma a parte tutto questo, c’è una parte psicologica non indifferente. Lee ha affermato che uno dei problemi che ha avuto è che “non sentiva” il suo avversario: un opponente umano, essendo appunto un essere umano, lascia trasparire in un certo qual modo il suo stato d’animo e un bravo giocatore può sintonizzarsi su di esso. La cosa mi pare un po’ esagerata, non foss’altro perché è una vita che si fanno anche partite per corrispondenza o a distanza, ma diamola per buona. Che dire però dello stile di gioco di AlphaGo? Fan ha affermato che “era un po’ strano, ma da essere umano”; uno degli arbitri dell’incontro con Fan sostiene che “il programma sembra avere sviluppato uno stile prudente e non aggressivo”; però secondo questo commentatore le cose non stanno così: AlphaGo farebbe “alcune mosse inusuali che sono chiaramente contro quanto imparato da un qualunque giocatore classico di Go, mosse che non entrano nella teoria corrente del gioco, e delle quali i migliori giocatori del mondo cercano disperatamente di trovare il senso”]. In pratica quindi avremo qualcosa di davvero alieno, e forse è quello il vero senso della frase di Lee più sopra. Gli apprendisti stregoni di Google hanno creato un sistema che parte dalle nostre conoscenze ma ne tira fuori (a caso o per volontà?) delle nuove. Questo potrebbe succedere anche in matematica? Potrebbe un sistema di intelligenza artificiale trovare nuovi teoremi “interessanti” (sono decenni che ci sono sistemi che producono teoremi…) o dimostrarli in maniera incomprensibile per noi? E in questo caso, sarebbero stati dimostrati? Notate che la dimostrazione del teorema dei quattro colori non ha nulla a che fare con questo: lì il calcolatore si è limitato a fare tanti conti stupidi. Beh, io di questo mi preoccuperei eccome…
Una cosa però è certa: xkcd deve aggiornare la sua vignetta.