Capire meglio l’IA, per un’IA che ci capisca meglio

FacebooktwitterlinkedinFacebooktwitterlinkedin

Intelligenza artificiale: tra scienza ed etica”: questo il titolo della conferenza pubblica tenuta il giorno 13 giugno dalla professoressa Francesca Rossi nell’ambito degli incontri di divulgazione scientifica organizzati dal progetto VIS.

È un tema che tocca corde profonde dell’immaginario — basti pensare a tutta la produzione letteraria, cinematografica e di serie tv giocata sul rapporto tra uomini e avanzate, intelligenti macchine futuristiche. È anche, e sempre di più, un tema al centro dell’attualità: è opinione condivisa che oggi siamo nel bel mezzo della quarta rivoluzione industriale o comunque di una nuova ondata di progresso tecnologico con al centro la robotica, i big data, la genomica, la digitalizzazione di tutte le transazioni. Queste saranno “le industrie del futuro”, per citare il best seller dello studioso e politico statunitense Alec Ross, e sono tutte industrie nelle quali l’IA gioca un ruolo nel migliore dei casi di primissimo piano, nel peggiore fondamentale. Infine, last but not least, l’IA è anche un tema che è stato fin dai suoi esordi e continua ad essere il terreno d’azione di moltissime brillanti menti di ricercatori e ricercatrici, che con il loro lavoro spostano sempre più in là la frontiera di quel che è possibile fare e comprendere.

Francesca Rossi si situa, come un membro d’eccezione, in quest’ultima categoria. Professore ordinario di informatica a Padova e fellow del centro di ricerca IBM T. J. Watson, si è avvicinata alla complessa riflessione interdisciplinare sul rapporto tra IA ed etica durante un’esperienza al Radcliffe Institute di Harvard, dove ogni anno 50 studiosi rappresentanti tutte le scienze, arti e humanities hanno l’opportunità di dialogare. Così, ci ha spiegato la professoressa Rossi, al posto delle domande tecniche che era abituata a sentirsi porre nell’ambito specialistico dell’informatica, è stata portata a confrontarsi con domande più ampie sulle ragioni profonde, sui valori e sugli impatti sociali ed economici insiti o in potenza nella progettazione e degli usi dell’IA. Da allora, ha scelto di aprire le sue riflessioni e ricerche a un dialogo costante con psicologi, economisti, filosofi, sociologi, e anche imprenditori e aziende, associazioni culturali e umanitarie, e persino scrittori di fantascienza.

La professoressa Rossi lavora su come incorporare nei sistemi di IA principi o regole di tipo etico, in modo da limitarne o indirizzarne l’azione o l’output in base a quello che noi uomini e donne – i programmatori e le loro istituzioni di riferimento, la comunità, l’utente – giudichiamo giusto o sbagliato, bene o male. Le sfide attualmente più importanti su questo percorso, ha spiegato, si possono riassumere in alcuni punti.

Il primo è la questione detta del “value alignment”: come assicurarci che un’IA segua i nostri stessi principi? Vogliamo, ad esempio, essere certi che l’IA che guida un’auto nel traffico incorpori il valore che la vita umana ha la priorità su oggetti e altri esseri viventi non umani, e vogliamo che il recommendation system di Youtube non consigli video dell’orrore o violenti a un bambino di sei anni. Secondo Rossi, si tratta di trovare una combinazione tra quella che lei e suoi colleghi chiamano la massimizzazione del rinforzo —l’IA deve massimizzare il suo rinforzo positivo, cioè il suo successo, e a tal fine può calibrare tutti i suoi parametri—, che però, lasciato come unico criterio, potrebbe portare ad azioni non etiche, e l’etica, ossia dei vincoli comportamentali decisi offline e non modificabili nel corso dei processi online. Questa e altre questioni collegate sono state studiate a fondo da Rossi, e chi volesse approfondire può leggere “Preferences and Ethical Principles in Decision Making“.

Un altro punto è la questione della trasparenza e dell’interpretabilità. Il codice che costituisce un sistema di IA è infatti estremamente complesso, e, da quando l’uso del machine learning è diventato dominante, contiene quasi sempre passaggi praticamente impenetrabili, perché l’output dipende dai —moltissimi— dati su cui l’algoritmo viene allenato, sfruttando un’immensa potenza di calcolo per estrarne pattern e regole. Non a caso è invalsa l’espressione di black box per designare questi algoritmi, e lo studioso Frank Pasquale ha scritto un libro sul fatto che viviamo in una Black Box Society, privi delle capacità e delle possibilità di comprendere, e quindi di controllare, i sistemi che pure regolano sempre più aspetti delle nostre esistenze. Secondo Rossi, sarà importantissimo trovare modi per gettare un po’ di chiara luce su questa opacità, sia pensando a sistemi capaci di fornire una spiegazione, sensata dal punto di vista umano, dei motivi alla base delle loro decisioni, sia accrescendo le nostre capacità di esaminare, e di interpretare, il modo di ragionare dei sistemi di IA.

C’è poi il problema dei bias. Siamo abituati a immaginare un sistema di IA come un asettico esecutore di regole dal sapore matematico, e, seguendo questa immagine, non ci viene in mente di attribuirgli una fallacia così umana come i pregiudizi. Eppure, come ci spiega Rossi, questo ragionamento è a sua volta fallace: come abbiamo già detto, un algoritmo di machine learning ha bisogno di apprendere da dei dati, e la scelta di quali dati “dargli in pasto” nella fase di training ha effetti determinanti su cosa l’algoritmo imparerà a fare e come imparerà a farlo. Una scelta poco bilanciata dei dati darà luogo a un sistema di IA che privilegia certi tipi di oggetti rispetto ad altri. Questo può risultare in un rafforzamento di uno status quo di disuguaglianza, come nel caso della disuguaglianza razziale o di genere, che, è emerso, sono state incorporate in sistemi di IA: il software COMPAS, che prediceva la probabilità che un criminale commettesse ulteriori crimini dopo il rilascio, assumeva che il solo essere nero fosse ragione di maggior probabilità di recidività, come ha dimostrato un’inchiesta di ProPublica; una ricerca ha scoperto che diversi software commerciali di riconoscimento facciale avevano un tasso di errore molto basso nel riconoscere i volti maschili e bianchi e un tasso d’errore imbarazzante nel riconoscere i volti femminili e di pelle scura; lo stesso Google Translator, ci ha fatto vedere Rossi, assume il genere maschile dei dottori e il genere femminile delle infermiere quando deve tradurre questi termini da una lingua priva di marcatori di genere a una lingua che ne è fornita. Sono stati identificati e classificati più di 180 tipi di bias cognitivi a cui noi umani siamo soggetti. Saper riconoscere e classificare i bias a cui sono soggette le IA è un compito importantissimo per garantire l’equità di trattamento in una società che sempre più si affida a valutazioni automatizzate anche in ambiti di vitale importanza per gli individui come la giustizia o le assunzioni lavorative.

Questi problemi sono tanto importanti quanto complessi, e da un lato richiedono, dall’altro favoriscono, la sinergia non solo di ambiti disciplinari diversi, ma anche di settori diversi dell’industria, e, ancora, dell’industria e dell’accademia. Rossi, attualmente impegnata nella ricerca multi-stakeholderPartnership on AI to benefit people and society”, lo sa molto bene, e, parlandocene, ci comunica il senso di un percorso impervio e ancora tutto da tracciare, ma che è assolutamente necessario tracciare e percorrere.

Autrice: Chiara Visentin