Tra sfide morali e nuove applicazioni, intervista a Nicola Palmarini, program manager al MIT-IBM Watson AI Lab
Lo sviluppo di algoritmi e software intelligenti, in grado cioè di affrontare in maniera efficiente problemi o situazioni nuove, appassiona da decenni il dibattito scientifico, alimentando al contempo un ricco filone narrativo: si pensi a quante volte, dai racconti di Asimov fino alle più recenti pellicole di fantascienza, sono stati immaginati futuri più o meno lontani – e più o meno distopici- in cui le macchine non fossero meri strumenti, bensì soggetti senzienti).
Allora, forse, la prima domanda che affiora nelle nostre menti quando vediamo robot dalle forme umane o animali guidati da intelligenze artificiali di nuova generazione, è carica di fascino ma anche di implicazioni filosofico-morali non indifferenti: è già stata sviluppata una forma di intelligenza artificiale pari o superiore a quella dell’uomo? O, detto in altri termini, la creatura ha superato il creatore?
Una questione di contesto
Ne abbiamo parlato in occasione di Trieste Next con Nicola Palmarini, program manager al MIT-IBM Watson AI Lab. Il laboratorio rappresenta un avveniristico sistema di ricerca in cui industria e ricerca accademica lavorano a braccetto, in uno scambio mutuale e simbiotico lontano dalla realtà di “sfruttamento a senso unico” che spesso, purtroppo, caratterizza il rapporto esistente tra questi due generatori di conoscenza. Già dalle prime battute anche i più pessimisti dovrebbero tirare un sospiro di sollievo: “Dobbiamo sempre ricordarci che tutto il machine learning alla base dell’intelligenza artificiale non esisterebbe senza l’ingegno umano – spiega Palmarini- e anche se a oggi esistono già molti software in grado di ottenere performance migliori dell’uomo in alcuni compiti [si pensi al famoso esempio del gioco degli scacchi, al calcolo, alla traduzione simultanea], ma lo fanno disinteressandosi completamente del contesto. Se la stanza in cui si trovano fosse invasa dalle fiamme, per fare un esempio, loro proseguirebbero a svolgere il compito per il quale sono programmati”.
In un certo senso, quindi, si potrebbe dire che anche le intelligenze artificiali (termine coniato nel ’56 a seguito di un convegno a cui hanno partecipato esperti di computazione provenienti da diverse istituzioni tra cui, dato sicuramente interessante, esponenti di IBM e del MIT) più evolute sono, di fatto, “stupide”: pur essendo bravissime a imparare delle regole e a trovarne l’applicazione più efficiente in tempi rapidissimi, le IA rimangono impermeabili al contesto in cui operano, che è tuttavia un elemento cruciale quando si analizza il comportamento degli esseri umani, così come quello degli altri esseri viventi.
“L’ambiente e il contesto che ci circondano non sono un libro aperto, ma al contrario rappresentano un qualcosa di mutevole che i software non riescono ancora a codificare, né tantomeno a mimare. In questo senso possiamo dire che, ad oggi, siamo lontani anni luce dal costruire un’IA paragonabile a quella umana, anche se moltissimi gruppi di ricerca in tutto il mondo stanno lavorando in questa direzione”.
Intelligenza artificiale e dilemmi morali
In questo ambito sta prendendo piede la consapevolezza che l’unico modo per sviluppare sistemi artificiali sempre più intelligenti sia quello di copiare i meccanismi di funzionamento dei circuiti neurali, attraverso un approccio di programmazione denominato neurosimbolismo: “è un modo di cercare di interpretare la realtà secondo quelle che sono le diverse dimensioni che la caratterizzano, che non sono necessariamente solo razionali: contemplano il contesto, gli stati della giornata, il vissuto di ognuno di noi – spiega ancora Palmarini- Sono qualcosa che noi processiamo in maniera del tutto naturale dal punto di vista neurologico, perché fa parte della nostra struttura di ragionamento, ma è un processo che è veramente complicatissimo da insegnare alle macchine”.
Insegnare a macchine e robot a svolgere compiti per i quali è richiesta un’alta interazione con l’ambiente circostante (che include anche le altre persone) presuppone però che questi sistemi siano sviluppati seguendo norme morali che a noi appaiono scontate, perché ormai inglobate nel nostro modo di essere e di pensare, ma che scontate non sono affatto.
Prendiamo il caso di un’auto guidata non da un/a guidatore/guidatrice in carne ed ossa, bensì da un’IA, che si trovi di fronte a un ostacolo improvviso e debba scegliere se colpirlo (uccidendo gli occupanti della macchina) o deviare, investendo e uccidendo delle persone che stanno attraversando la strada. Che decisione dovrebbe prendere o, detto in altri termini, che morale dovrebbe seguire?
È la risposta a cui cerca di rispondere la Moral Machine, una piattaforma online di raccolta dati che pone quello che è considerato il principe dei quesiti morali attraverso la presentazione di 13 scenari differenti, in cui le caratteristiche di passeggeri e quelle delle possibili vittime (specie di appartenenza, età, genere, ma anche il fatto di aver rispettato o meno le norme del codice della strada, occupazione e forma fisica) variano in continuazione.
“Quello che si osserva dai risultati finora ottenuti, ricavati dalle compilazioni fatte da migliaia di utenti, è una sorta di classifica dei sacrificabili: primi i gatti, poi i cani, i criminali, le donne anziane, gli uomini anziani, le donne obese, gli uomini obesi e così via…ma possiamo considerarla una classifica giusta, o valida per tutti?”. Il fatto che la morale condivisa dalla maggior parte delle persone sia alla base della morale artificiale su cui si fonda l’IA oggi a disposizione è solo uno dei tanti biasche vengono inglobati nella creazione di software intelligenti.
La buona notizia è che i ricercatori coinvolti sulle linee di sviluppo più innovative sono ben consapevoli di questa problematica, come fa notare Palmarini: “è importantissimo che questi argomenti vengano discussi in maniera diffusa, pubblica e partecipata, perché la risposta a questi e ad altri quesiti di natura morale ed etica deve provenire da punti di vista diversi”. Interesse che è presto contagiato anche gli ambienti esterni al mondo della ricerca, politica inclusa: non a caso qualche mese fa l’Unione Europea ha elaborato un Codice Etico ad hoc, contenente le linee guida riguardanti uno sviluppo etico dell’IA.
Uno strumento versatile
Un impegno sancito non solo sulla carta, se si pensa ad esempio che molti dei 240 milioni di dollari che IBM ha destinato al laboratorio di Cambridge sono e saranno investiti in un avanzamento responsabile dell’IA.
Perché, nonostante le serie e importanti questioni morali legate a queste tecnologie, il loro sviluppo potrebbe essere un aiuto cruciale in moltissimi campi di indagine. L’intelligenza artificiale, infatti, non è solo quella che permette a un software dedicato, AlphaGo, di battere il campione mondiale di un gioco da tavolo di origine cinese.
È quella, ad esempio, che si cerca di utilizzare nella ricerca medica e farmacologica, in particolar modo nello studio dell’inferenza causale: capire cioè quali siano le relazioni tra attori e agenti apparentemente disconnessi tra loro, e quali sono le probabilità che un evento sia causa o effetto di un altro. Le IA potrebbero venire utilizzate (e già in parte lo sono) per la creazione di modelli predittivi diagnostici basati su volumi enormi di dati (estratti ad esempio da sensori posti sul corpo dei pazienti) o dall’analisi di centinaia di migliaia di immagini mediche, o cartelle cliniche.
E anche se la mente vola allo sullo sviluppo di robot umanoidi – come è facile, dato il fascino innegabile che esercitano sul nostro immaginario – le recenti linee di ricerca sono attente, oltre che a un miglioramento delle performance, anche all’aspetto più umano: “ci sono dipartimenti che lavorano sul feedback dei robot, ossia l’insieme di interazioni – movimenti degli occhi e delle sopracciglia, cenni di assenso- che inconsapevolmente mettiamo in atto quando comunichiamo con un’altra persona. Anche in questo contesto l’IA ci permette di proporre strutture logiche di sequenze che altrimenti dovremmo codificare a mano ogni volta”.
Computer affettivi, dotati di una componente empatica in grado riconoscere e mimare questo linguaggio non verbale, potrebbero essere non solo intriganti dal punto di vista estetico, ma anche utili nel trattamento di disturbi in cui queste capacità vengono meno.
Moltissime possibilità, che spaziano dall’analisi del linguaggio alle applicazioni nel campo della disabilità, ma che hanno un unico obiettivo: lo sviluppo di programmi intelligenti, in grado di analizzare e sfruttare in modo dinamico il contesto in cui operano.
Crediti immagine: shutterstock
Marcello Turconi