I robot killer non devono nascere

Andrea Capocci, Il Manifesto, 8 aprile 2018

Scienziati internazionali boicottano il Kaist, l’istituto avanzato di scienza e tecnologia della Corea del Sud è colpevole di collaborare con le aziende produttrici di armi. E anche i dipendenti di Google attaccano l’azienda perché fornisce sistemi di controllo al pentagono basati sulla AI

Una lettera aperta firmata da una cinquantina di scienziati leader nel campo dell’intelligenza artificiale chiede di boicottare l’Istituto avanzato di scienza e tecnologia della Corea del Sud, più noto nel mondo come Kaist. «Non visiteremo il Kaist né ospiteremo colleghi del Kaist, e non contribuiremo ad alcun progetto di ricerca che coinvolga il Kaist». Il linguaggio netto della lettera segnala uno scontro ad alto livello nella comunità scientifica.

Il Kaist è una delle migliori università a livello internazionale secondo tutte le metriche e si distingue soprattutto nel campo delle nuove tecnologie: per la classifica Thomson Reuters, è la sesta università più innovativa al mondo e la prima in Asia. I firmatari della lettera però non sono da meno: provengono da 30 paesi diversi e rappresentano molti nomi illustri della ricerca nel campo dell’intelligenza artificiale, come Toby Walsh (Australia), Marco Dorigo (Italia), Yoshua Bengio (Francia), Zhi-Hua Zhou (Cina) e Stuart Russell (Usa).

COSA HA COMBINATO il Kaist per meritarsi un attacco così duro? Secondo gli scienziati, l’istituto è colpevole di aver fondato un «Centro di ricerca per la convergenza della difesa nazionale e dell’intelligenza artificiale» con la principale azienda coreana di produzione di armi, la Hanwha. L’azienda è stata spesso criticata per la produzione di bombe a grappolo, bandite dalle convenzioni internazionali che, non a caso, la Corea del Sud non ha mai firmato. «Mentre l’Onu discute su come limitare la minaccia per la sicurezza nazionale proveniente dalle armi a controllo autonomo, è deplorevole che un’istituzione prestigiosa come il Kaist punti ad accelerare la corsa a sviluppare tali armi», scrivono gli scienziati.

Temono che l’intelligenza artificiale sia sfruttata per realizzare droni e altri robot capaci di individuare un obiettivo e ucciderlo al di fuori del controllo umano. È un tipo di arma terribile in sé, ma che in mano a terroristi e governi poco interessati ai diritti umani rappresenta una minaccia globale alla sicurezza.

Toby Walsh, il promotore del boicottaggio, è uno degli scienziati più impegnati nella bioetica dell’intelligenza artificiale. Con una nutrita schiera di colleghi si batte perché l’intelligenza artificiale non venga utilizzata a scopi militari. Ha partecipato alla stesura dei «23 principi» etici che dovrebbero ispirare la ricerca nel campo dell’intelligenza artificiale, stabiliti nel gennaio del 2017 ad Asilomar, California (vedi scheda, ndr). Il luogo non è stato scelto a caso: nel 1973, ospitò la conferenza in cui furono stabilite le linee guida bioetiche per l’ingegneria genetica. È anche uno degli esponenti della campagna Stop Killer Robot per la messa al bando dei robot in grado di uccidere anche senza un umano che prema il grilletto. La campagna, che coinvolge diversi scienziati italiani di punta, ha trovato una risposta tiepida dal nostro parlamento nonostante la presenza di deputati esperti. Invece di proporre una moratoria internazionale sulle armi a controllo autonomo, come chiedeva una mozione dell’informatico e deputato montiano Stefano Quintarelli, nel dicembre 2017 la Camera ha approvato un testo più blando redatto dalla senatrice Carrozza del Pd (docente e ricercatrice proprio nel campo della robotica) che però non impegna l’Italia ad alcuna iniziativa autonoma.

L’USO MILITARE dell’intelligenza artificiale sta dunque spaccando la comunità scientifica, sia nell’ambito della ricerca accademica che nell’industria. Pochi giorni fa, infatti, è stata divulgata una petizione firmata da ben 3100 dipendenti di Google e diretta all’amministratore delegato Sundar Pichai contro il «Progetto Maven»: la fornitura al Pentagono di un sistema di sorveglianza basato sull’intelligenza artificiale da utilizzare nel riconoscimento di bersagli militari, in cui è coinvolta l’azienda. I dipendenti chiedono che il progetto venga cancellato in omaggio al motto fondatore di Google «don’t be evil», «non essere cattivo». Per simili questioni di reputazione, Google aveva comprato e rivenduto solo tre anni dopo la società Boston Dynamics, produttrice di robot militari inquietanti sin dall’aspetto fisico.

Se attori di primissimo piano come Kaist e Google partecipano al trasferimento in campo militare delle conoscenze acquisite nel campo dell’intelligenza artificiale, è segno che i legame tra informatica e industria bellica è più stretto di quanto si pensi. La stessa petizione dei dipendenti Google ricorda come al progetto Maven partecipino anche altri colossi, come Microsoft e Amazon. E la maggior parte delle analisi storiche concordano nell’attribuire il successo della Silicon Valley in gran parte agli investimenti pubblici risalenti agli anni ’60, quando piccole e grandi imprese iniziarono a sviluppavare hardware e software a uso «duale» civile e militare. Il legame non si è interrotto nemmeno negli anni ’70, quando in California esplose la cultura hyppie, pacifista e libertaria. Anzi: personaggi mitici come Steve Jobs venivano proprio da quella controcultura. L’informatica sembrò a molti un terreno su cui costruire nuove relazioni sociali e produttive, da cui sarebbero nate l’etica hacker e il capitalismo delle start-up.

ALLO STESSO TEMPO, forniva innovazioni utilissime ai generali. Fu il lato oscuro del tanto celebrato ’68 statunitense, in cui pochi seppero riconoscere per tempo il rilancio del capitalismo americano colpito dallo shock petrolifero. L’ambigua relazione tra computer e carri armati è proseguita fino ad oggi, con qualche incidente di percorso come lo scandalo Snowden di qualche anno fa, la recentissima «scoperta» dell’uso politico dei dati raccolti sui social network e le proteste anti-militariste degli esperti di intelligenza artificiale.

I robot a controllo autonomo, tuttavia, rispetto ad altre tecnologie duali sollevano questioni sociali più profonde. La questione di una maggiore vigilanza sull’intelligenza artificiale, infatti, viene sollevata sempre più spesso anche a proposito di applicazioni più innocue, come l’auto a guida autonoma. Sull’ultimo numero della rivista Nature, una delle voci «ufficiali» della comunità scientifica globale, è stato pubblicato un commento intitolato esplicitamente Le persone devono mantenere il controllo dei veicoli a guida autonoma, firmato da Ashley Nunes, Bryan Reimer e Joseph F. Coughlin del Massachusetts Institute of Technology di Boston.

L’ARTICOLO SOSTIENE, dati alla mano, come la pressione per l’introduzione dei veicoli a guida autonoma abbia indotto molti stati a allentare le norme di sicurezza invece di introdurne di più stringenti.

I tre ricercatori sollevano la questione, finora abbastanza ignorata, sulla trasparenza degli algoritmi che governano i veicoli a guida autonoma. Da un lato, norme come il Regolamento generale per la protezione dei dati (valido in Europa dal prossimo 25 maggio) prevedono che gli utenti conoscano i principi secondo cui le macchine prendono le loro decisioni. Ma il cosiddetto «deep learning», l’algoritmo che sta al nocciolo di molti sistemi attuali di intelligenza artificiale, non risponde in base a norme facilmente identificabili da parte dello stesso sviluppatore, anche perché può generare comportamenti diversi a seconda dei dati con cui è stato «allenato». In altre parole, due macchine a guida autonoma poste nella stessa situazione possono comportarsi in modo diverso e autonomo persino da chi le ha progettate. Perciò, anche norme che devono ancora entrare in vigore, nonostante le garanzie apparenti, rischiano di risultare obsolete.

LA PRESA DI POSIZIONE di Nature arriva in un momento non casuale, a poche settimane di distanza dal primo investimento mortale di un pedone da parte di un’auto a guida autonoma in Arizona. Ma colpisce perché gli investimenti industriali in questo settore foraggiano anche molta ricerca accademica, in cui lavora la maggior parte dei lettori di Nature. Grazie all’intelligenza artificiale e alla genetica, evidentemente, sta tornando di attualità un tema antico, da molti considerato addirittura polveroso, come quello del controllo politico sulla ricerca. Sostanzialmente abbandonato negli anni ’80, oggi rappresenta una sfida per l’industria che invece vorrebbe massima libertà di azione. Ma sfida anche la politica perché riesumare nel 2018 gli slogan di ieri sarà un esercizio rassicurante, ma del tutto inutile.

SCHEDA

Lo scorso anno, il «Future of life Institute» ha organizzato una conferenza intitolata «Beneficial AI» (Intelligenza artificiale e benefica) sulle implicazioni dell’introduzione di macchine a controllo autonomo nella vita quotidiana. I ricercatori hanno stilato 23 principi affinché l’intelligenza artificiale si riveli un’opportunità, e non una minaccia. Tra i punti evidenziati: oltre a rifiutare lo sviluppo di armi letali a controllo autonomo, la ricerca scientifica deve essere accompagnata da sufficienti finanziamenti per studiare l’impatto sociale dell’intelligenza artificiale. Inoltre, macchine in grado di auto-migliorarsi e auto-replicarsi devono essere sottoposte a limiti e controlli molto severi. Infine, le macchine a intelligenza artificiale devono essere al servizio dell’umanità e non di una nazione o singola impresa.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

albertosoave.it © 2017 Frontier Theme