L'intelligenza artificiale di Google diventa aggressiva

intelligenza artificiale
Come verificato dai ricercatori di Google DeepMind, l'intelligenza artificiale può mostrare caratteristiche di aggressività Gisela Giardino (CC BY-SA 2.0)

Quando si parla di intelligenza artificiale uno dei timori più forti è quello di vedere nella realtà uno scenario simile a quelli dipinti in numerosi film come Terminator, Matrix o 2001: Odissea nello spazio, ossia una situazione nella quale un sistema di IA si rende conto come sia più conveniente rivoltarsi contro gli esseri umani anziché servirli. Questa non è una paura da miopi tecnofobi, ma un pensiero espresso in tempi relativamente recenti da scienziati ed innovatori tecnologici come Elon Musk, Stephen Hawking o Steve Wozniak.

Non si tratta di preoccupazioni campate per aria, se è vero che esperimenti per capire quella che potremmo definire la "psicologia dell'intelligenza artificiale" sono in corso in quella che può assolutamente essere considerata come una delle più avanzate aziende del settore: stiamo parlando di DeepMind, società inglese acquistata da Google nel 2014 per 400 milioni di dollari ed arrivata agli onori delle cronache, tra le altre cose, per la schiacciante vittoria ottenuta contro uno dei più grandi campioni del gioco strategico Go.

LEGGI ANCHE: L'intelligenza artificiale gioca a poker meglio degli esseri umani, cosa significa per noi?

Uno dei primi risultati degli esperimenti di Google DeepMind è sintetizzato nel video qui sotto, che sembra la rappresentazione di un videogame appena uscito dai primi anni '80. In effetti si tratta proprio di un gioco, nel quale i due concorrenti evidenziati dai colori blu e rosso non sono altro che due rappresentazioni di un sistema di intelligenza artificiale.

Lo scopo del gioco è quello di raccogliere più mele (i quadrati verdi) possibile; ognuno dei due agenti può "sparare" all'altro con un raggio giallo se lo desidera, rendendolo temporaneamente inattivo. Come descritto in un interessante report, gli scienziati di Google DeepMind hanno verificato come inizialmente i due agenti cooperino, o quantomeno non si intralcino. Il problema nasce quando la materia prima comincia a scarseggiare: i due puntini iniziano a spararsi a vicenda nel tentativo di prevalere sull'altro, mostrando quindi un atteggiamento piuttosto aggressivo.

Ovviamente, questo non è un aggettivo particolarmente comune nel descrivere un sistema informatico, che dovrebbe in teoria agire secondo criteri di pura razionalità. Se però le cose funzionassero sempre in questo modo i due agenti avrebbero semplicemente lavorato in parallelo, raccogliendo lo stesso numero di mele. Così non è stato e, come verificato da Google DeepMind, più complessa è la rete neurale alla base del sistema di intelligenza artificiale maggiore è l'aggressività mostrata.

"Questo modello mostra che alcuni aspetti di comportamento simile a quello umano emergono come prodotto dell'ambiente e dell'apprendimento", spiega Joel Z Leibo, un dei ricercatori coinvolti, a Wired. "Politiche meno aggressive emergono dall'apprendimento in ambienti con una relativa abbondanza ed una minore possibilità di un'azione dannosa. La motivazione dell'avidità riflette la tentazione di mettere fuori causa un rivale e raccogliere da solo tutte le mele".

Ad ogni modo, le reti neurali non hanno semplicemente l'aggressività come risposta ad una situazione complessa: secondo quanto rilevato dai ricercatori di Google DeepMind, i sistemi di intelligenza artificiale sono anche capaci di cooperare al meglio, come emerso da un altro gioco, chiamato Wolfpack.

LEGGI ANCHE: Intelligenza artificiale: AlphaGo sta continuando a battere campioni, ma in segreto

In questo caso, a due agenti era stato chiesto di catturare una preda: entrambi avrebbero ricevuto un premio una volta raggiunto l'obiettivo, a prescindere da quale dei due lo avesse materialmente fatto. Ad ogni modo, se la preda fosse stata catturata da soltanto uno dei due, questo avrebbe rischiato di perdere la carcassa a favore di qualche animale saprofago, motivo per il quale era più conveniente cacciare in due.

In questo modo è stata incentivata la cooperazione, perché collaborare con l'altro agente era anche il modo migliore di perseguire i propri interessi. Questa potrebbe quindi essere la chiave per lasciare che Terminator resti solamente un film: fare in modo che aiutare gli esseri umani resti per prima cosa un interesse del sistema di intelligenza artificiale stesso.