Se una macchina impara i pregiudizi umani

Se una macchina impara i pregiudizi umani

pregiudiziLe più stupefacenti applicazioni dell’intelligenza artificiale non sono guidate da una logica asettica e oggettiva, ma incorrono facilmente in errori sistematici e veri e propri pregiudizi che gli algoritmi di apprendimento automatico alla loro base acquisiscono dai progettisti umani. Se l’intelligenza artificiale prenderà il sopravvento nella nostra vita, probabilmente non porterà l’uomo a combattere un esercito di robot che applicano un’inesorabile logica alla Spock per renderci fisicamente schiavi. Piuttosto, gli algoritmi di apprendimento automatico che già consentono ai programmi di intelligenza artificiale (IA) di raccomandarci un film o riconoscere il viso di un amico in una foto saranno probabilmente gli stessi che un giorno ci negheranno un prestito, faranno arrivare la polizia nel vostro quartiere o diranno al vostro medico che avete bisogno di una dieta. E dal momento che sono gli esseri umani a creare gli algoritmi, questi sono altrettanto inclini a pregiudizi che possono portare a decisioni sbagliate, e conseguenze ancora peggiori.

Questi pregiudizi causano alcune immediate preoccupazioni sulla nostra crescente dipendenza dalla tecnologia dell’intelligenza artificiale (IA), perché ogni sistema di intelligenza artificiale progettato dagli esseri umani per essere assolutamente “neutrale” potrebbe rafforzare ancor più i preconcetti umani, invece di evitarli. Le forze dell’ordine sono già state criticate, per esempio, per l’uso di algoritmi informatici che etichetterebbero gli imputati neri come autori più probabili di un crimine futuro, anche se il programma non è stato progettato per prendere in considerazione in modo esplicito la razza.

Il problema principale è doppio: in primo luogo, i dati usati per calibrare gli algoritmi di apprendimento automatico talvolta sono insufficienti, e in secondo luogo, gli algoritmi possono essere progettati male.

L’apprendimento automatico è il processo attraverso cui gli sviluppatori di software addestrano un algoritmo di IA con enormi quantità di dati rilevanti per il compito da eseguire. Alla fine, l’algoritmo che ha individuato dei modelli  nei dati inizialmente forniti, consente di riconoscere modelli simili anche in dati nuovi.

Ma questo non sempre funziona come previsto, e il risultato può essere orribile. Nel giugno del 2015, per esempio, il sistema di categorizzazione delle foto di Google ha identificato due afroamericani come “gorilla”. L’azienda ha risolto rapidamente il problema, ma in un articolo sul “New York Times” la ricercatrice della Microsoft Kate Crawford ha osservato che l’errore riflette un più ampio “problema dell’uomo bianco” dell’IA. I dati utilizzati per addestrare il software, cioè, si basavano troppo su foto di bianchi, diminuendo la capacità dell’algoritmo di individuare con precisione le immagini di persone con caratteristiche diverse.

Anche la recente ondata di storie false che ha sommerso gli utenti di Facebook mette in evidenza il problema della polarizzazione dell’IA. L’algoritmo di Facebook per identificare le notizie più significative è stato progettato per stabilire la priorità sulla base del coinvolgimento, ossia sulla frequenza con cui le persone cliccano la notizia o la condividono. La veridicità non è stata presa in considerazione.

Ai primi di novembre varie agenzie di stampa hanno rivelato che durante le elezioni negli Stati Uniti un gruppo di adolescenti macedoni aveva ingannato l’algoritmo di Facebook facendogli promuovere storie palesemente false che potevano piacere agli elettori di destra. Facebook dice di avere poi modificato l’algoritmo e ha annunciato piani di coordinamento con Snopes.com, Factcheck.org, ABC News e PolitiFact per escludere gli articoli ovviamente falsi.

“E’ un po’ come il’problema del tank russo “, dice Hal Daume III, docente di informatica all’Università del Maryland. Questa leggenda apocrifa, ma esemplare, spesso riferita dai docenti di informatica, risale agli albori dell’apprendimento automatico, negli anni ottanta. La storia dice che l’esercito americano aveva cercato di addestrare un computer a distinguere in foto i carri armati russi e quelli americani. “Avevano creato una classificazione estremamente precisa, ma tutte le immagini di carri armati russi erano sfocate mentre quelle dei carri armati americani erano ad alta definizione”, spiega Daume. Invece di identificare i carri armati, l’algoritmo aveva imparato a distinguere tra foto sgranate e di alta qualità.

Nonostante questi limiti ben noti, un gruppo di ricercatori recentemente ha pubblicato uno studio affermando che un algoritmo era in grado di dedurre se una persona è un pregiudicato valutandone i tratti del viso. Xiaolin Wu e Zhang Xi, della Shanghai Jiao Tong University, hanno addestrato un algoritmo di apprendimento automatico su un insieme di dati costituito da 1856 foto di volti, 730 di criminali condannati e 1126 di non criminali. Dopo aver guardato il 90 per cento delle immagini, l’IA è stata in grado di identificare correttamente nel restante 10 per cento di foto quelle dei criminali condannati.

Secondo lo studio, l’algoritmo correla specifiche caratteristiche facciali con la criminalità. I criminali, per esempio, avevano più probabilità di avere certi rapporti spaziali tra la posizione degli angoli degli occhi, la curvatura delle labbra e la punta del naso, dice Wu, che comunque osserva che avere uno di quei rapporti non indica necessariamente che una persona abbia più probabilità di essere un criminale. Wu ha anche scoperto che i volti dei criminali differivano maggiormente l’uno dall’altro, mentre i non criminali tendevano a condividere caratteristiche simili.

Wu ha continuato testare l’algoritmo usando un diverso insieme di foto che l’IA non aveva visto in precedenza, e ha scoperto che poteva individuare correttamente un condannato più spesso di quanto sbagliasse. I ricercatori hanno cercato di evitare alcune distorsioni nel corso dell’addestramento e nella sperimentazione del loro algoritmo ricorrendo solo a facce di maschi cinesi giovani o di mezza età senza peli sul viso e senza cicatrici.

“Avevo deciso di dimostrare che la fisiognomica era sbagliata”, dice Wu, riferendosi alla secolare pseudoscienza di valutare il carattere in base ai tratti del viso. “Siamo stati sorpresi dai risultati.” Anche se potrebbe sembrare che lo studio convalidi alcuni aspetti della fisiognomica, Wu riconosce che sarebbe “folle” usare quella tecnologia per scegliere qualcuno da un elenco di polizia, e dice che non c’è alcun progetto per qualsivoglia applicazione di polizia.

Altri scienziati dicono che le scoperte di Wu e Zhang possono semplicemente rafforzare pregiudizi esistenti. La criminalità dei soggetti è stata determinata da un sistema giudiziario locale gestito da esseri umani che prendono (magari inconsciamente) decisioni di parte, osserva Blaise Agüera y Arcas, un ricercatore di Google che studia l’apprendimento automatico.

Il problema centrale dell’articolo è che si basa su questo sistema “come verità di riferimento per etichettare i criminali, e quindi conclude che l’apprendimento automatico che ne risulta non è distorto dalla valutazione umana”, aggiunge Agüera y Arcas.

Wu e i suoi colleghi “saltano direttamente alla conclusione di aver trovato un modello naturale di base – la struttura del viso – che predice la criminalità. E’ una conclusione molto imprudente”, dice Kyle Wilson, docente di matematica al Washington College ed esperto in computer vision.

Wilson dice anche che questo algoritmo può semplicemente riflettere la polarizzazione degli esseri umani in un particolare sistema giudiziario, e potrebbe fare la stessa cosa in qualsiasi altro paese. “Gli stessi dati e strumenti potrebbero essere usati per comprendere meglio i pregiudizi [umani] fondati sull’aspetto che sono in gioco nel sistema giudiziario penale”, dice Wilson. “Invece, hanno insegnato al computer a riprodurre quegli stessi pregiudizi umani”.

Altri ancora dicono che la tecnologia potrebbe essere migliorata tenendo conto degli errori nei modelli imparati dai computer, in modo da cercare di eliminare i pregiudizi umani.

Un sistema di intelligenza artificiale commette errori quando impara, anzi deve commetterli, è per questo che si chiama “apprendimento”, spiega Jürgen Schmidhuber, direttore scientifico del laboratorio di intelligenza artificiale svizzero dell’Istituto Dalle Molle di studi sull’intelligenza artificiale. I computer, osserva Schmidhuber, impareranno solo ciò che è permesso dai dati che sono forniti.

“Non si possono eliminare tutte le fonti di distorsione, così come non è possibile eliminare queste fonti per gli esseri umani”, dice. Ma, aggiunge, è possibile riconoscere e assicurarsi di usare solo dati buoni e progettare bene il compito; fare le domande giuste è fondamentale. Oppure, per ricordare un vecchio detto dei programmatori: la spazzatura che metti dentro la ritrovi in uscita.

Jesse Emspak

(La versione originale di questo articolo è apparsa su www.scientificamerican.com il 29 dicembre 2016. Riproduzione autorizzata, tutti i diritti riservati)

lescienze.it