Il Pentagono riprende Asimov, Regole etiche per i robot

Automi impiegati in guerra o nell’assistenza sociale, capaci di prendere decisioni in autonomia. Militari e scienziati: “Dobbiamo dare loro delle regole perché non facciano danni agli umani”
di Ernesto Assante

“Io Robot”, classico di Asimov incentrato sulle “tre leggi” della robotica.

Le tre leggi della robotica - Isaac Asimov
Isaac Asimov

ISAAC Asimov, molti anni fa, stabilì le tre leggi fondamentali della robotica, regole che i robot, nei suoi libri di fantascienza, non avrebbero mai trasgredito e che avrebbero governato per sempre il loro comportamento.

Le tre leggi della robotica

La prima regola è che un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

La seconda dice che un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino con la Prima Legge.

La terza stabilisce che un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e/o la Seconda Legge.

Quando Asimov scriveva le sue direttive i robot veri, quelli che l’uomo aveva già creato, erano molto lontani dall’essere in grado non solo di trasgredire, ma anche di osservare quelle regole, tanto erano indietro nel loro percorso evolutivo.

Oggi non è più così: “E’ da più di un anno che 14 aziende in Giappone e in Corea del Sud hanno messo a punto dei robot che si occupano dei bambini. Bisognerà capire se questo porterà a una diminuzione di cura dei bambini o no”, ha scritto in un articolo sulla rivista americana Science, Noel Sharkey, professore di intelligenza artificiale e robotica all’Università di Sheffield, interrogandosi sul ruolo, sempre più importante, che i robot stanno prendendo nella nostra vita. “E’ giunta l’ora di stabilire delle regole etiche per i robot”, dice il professore, per fare in modo che il comportamento di queste macchine non porti danni all’uomo.

Il problema se lo stanno ponendo anche gli esperti di robotica del Pentagono, che hanno stanziato circa 4 miliardi di dollari sulla ricerca di droni da mandare sul campo di battaglia. Colin Allen, professore con una cattedra in filosofia della scienza presso la Indiana University, ha scritto un libro sul tema, “Moral Machines: Teaching Robots Right From Wrong”: “è davvero possibile fare in modo che armi automatizzate siano in grado di conformarsi alle leggi di guerra. Possiamo o no usare la teoria dell’etica per progettare queste macchine?

E ora che si cominci a prendere in considerazione questo genere di problematiche, invece di limitarsi ad attendere finché non sarà troppo tardi. Abbiamo in circolazione computer che prendono decisioni e lo fanno in maniera eticamente neutra”.

repubblica.it