MACCHINE MORALI
NOTA DIPLOMATICA REAL GEOPOLITICS
2 novembre 2018 — Futuro — Gerente: James Hansen
2 novembre 2018 — Futuro — Gerente: James Hansen
Macchine morali — Ingegneri e programmatori in tutto il mondo sono
impegnati in una corsa all’oro per creare auto autonome che possano girare
sulle strade con il traffico umano. Sensori su sensori, computer potenti,
servo-meccanismi, tutta la più avanzata tecnologia—e poi quelle maledette
vetture trovano qualcuno che non dovrebbe esserci su un passaggio pedonale e lo
investono. La difficoltà è che le automobili senza conducente, più di ogni
altro tipo di robot, devono simulare il comportamento umano, almeno di chi
guida le macchine convenzionali o comunque frequenta le strade. Il caso etico
che ne nasce è noto come il “trolley problem”, il problema del tram, e si
applica alla determinazione di cosa dovrebbero fare gli automi quando, in un
emergenza, tocca loro decidere chi sacrificare: il pedone che sbuca, i
passeggeri sul mezzo, su un altro mezzo? E, se le condizioni obbligassero
assolutamente a una scelta, è meglio mettere sotto un giovane adulto, un
anziano, un bambino, due suore, tre liceali? Gli umani risolvono il problema
reagendo a casaccio, con la confusione e il panico. Le macchine robot possono
scegliere a mente fredda, ma a far cosa? Bisogna trasferirgli i concetti di
etica da chi li possiede, le persone. Ciò è il tema di un grande progetto di
ricerca—The Moral Machine—del MIT-Massachusetts Institute of Technology sul
comportamento etico alla guida. Ha coinvolto 2,3 milioni di persone intorno al
mondo. L’indagine è consistita nell’illustrare con una sorta di videogioco 13
scenari in cui è inevitabile che ci sia una vittima—situazioni rare, ma non
impossibili—obbligando i partecipanti a scegliere chi “salvare” tra giovani e
vecchi, guidatori o pedoni, femmine o maschi, agiati o poveri, e così via.
L’equipe del MIT ha trovato che il mondo si divide in tre macro-gruppi morali:
il primo con Nord America e molti paesi europei (Italia compresa) dalla
tradizione cristiana, il secondo i paesi come Giappone, Indonesia e Pakistan,
con tradizioni confuciane o islamiche. Il terzo gruppo comprende paesi del Sud
e Centro America, la Francia e le ex colonie francesi. Il primo gruppo, gli
“occidentali”, esprime una marcata preferenza per salvare i giovani rispetto ai
vecchi, mentre gli “asiatici” non distinguono per gruppi d’età. Il Sud
francofono e latino-americano invece mostra una preferenza per salvare le donne
rispetto agli uomini. C’entrano altri fattori. I paesi dalla forte tradizione
legalitaria, Giappone e Finlandia per esempio, hanno scelto più spesso di
investire chi attraversa fuori dalle strisce rispetto ad altre nazioni meno
legalistiche, come Nigeria e Pakistan. Gli scenari che obbligavano a scegliere
tra la morte di un uomo d’affari o un senzatetto hanno rispecchiato i
dislivelli economici nelle culture. La Finlandia, dalle limitate distanze
economiche tra le classi, non ha espresso chiare preferenze, mentre il
rispondente medio della Colombia, paese caratterizzato da grandi disparità
economiche, non ha esitato a scegliere di investire il povero. Le lezioni sono
due. Prima, non è vero che tutto il mondo sia “paese”. Le auto autonome
dovranno, semmai, cambiare etica quando passano il confine. La seconda è che
non siamo pronti per insegnare il comportamento alle auto senza conducente.
Vedono le cose come stanno, non come vorremmo noi. Prima di andare d’accordo
con gli umani, i robot dovranno almeno imparare a “venirci un po’ incontro”.
Sarebbe molto meglio se gli esseri umani impiegassero il loro tempo a "venirsi un po'incontro gli uni con gli altri".
RispondiEliminaAngela Fabbri