L'INTELLIGENZA ARTIFICIALE SIAMO NOI

 

Prossima
 

Dialoghi. L'intelligenza artificiale non è altro che il riflesso della nostra società. Per fare in modo che non diventi l'ennesima replica di pregiudizi e oppressioni, dobbiamo demistificarla e riappropriarci dei dati, in una prospettiva femminista. Conversazione con Ivana Bartoletti


L'intelligenza artificiale
siamo noi



Dati, privacy, algoritmi e intelligenza artificiale (in inglese Artificial Intelligence, comunemente abbreviato in AI). Questioni che sembrano appartenere a settori molto specifici della conoscenza e che invece riguardano sempre più da vicino la vita delle persone. Ne abbiamo discusso con Ivana Bartoletti, autrice del saggio An artificial revolution, on power, politics and AI (Indigo Press, 2020), tra le massime esperte a livello internazionale nei settori della privacy, della protezione dei dati e della tecnologia responsabile, che nel corso dell'ultima edizione del Festival di Internazionale a Ferrara è stata tra le ospiti di inGenere negli spazi del Laboratorio Aperto Ex Teatro Verdi.

Quando si parla di intelligenza artificiale ci sono di solito due elementi che non si tengono in considerazione, ma che tu metti in evidenza del tuo libro, cioè che l'intelligenza artificiale è politica e che non è neutra rispetto al genere (in inglese, gendered); che cosa significa?

La prima cosa da dire su questo è che "intelligenza artificiale" non significa niente: l'intelligenza artificiale, infatti, di per sé non è né intelligente né artificiale. Non è intelligente nel senso che non ha empatia, non si adatta al contesto. È un meccanismo computazionale, uno strumento fatto di tre elementi: dati, parametri e persone. I dati non sono altro che fotografie del presente, quindi non sono neutri, e nemmeno i parametri e le persone che fanno l'intelligenza artificiale lo sono. Quando si parla di intelligenza artificiale abbiamo a che fare con uno strumento socio-tecnico: ad esempio, se decido di avvalermi dell'AI per determinare se assumere o meno una persona o per capire se può avere accesso a un prestito o a un mutuo, non sto creando fantascienza, ma un sistema per cui io, programmatore, programmatrice, definisco i parametri; scelgo quali dati metterci dentro; alleno quello stesso sistema. L'intelligenza artificiale non è qualcos'altro da noi. Siamo noi.

Ultimamente si sente sempre più spesso dire, come nel caso di Elon Musk, che l'intelligenza artificiale ci distruggerà tutti, che siamo alla fine del mondo. Perché? 

Ivana Bartoletti
Ivana Bartoletti

Perché vogliono mitizzare l'AI, farla sembrare qualcos'altro. Così poi noi la vediamo come qualcosa di magico, di mistico, e allora non ce ne interessiamo e non ce ne occupiamo. Per questo dico che è gendered ed è politica: perché è fatta da dati, persone e parametri, e in quanto tale, ha tutte le caratteristiche della nostra società.

Tra le prime considerazioni che fai nel tuo libro, c'è quella per cui i dati, soprattutto se quantitativi, condizionano sempre di più le nostre scelte, non solo individuali ma anche politiche. In questo momento abbiamo un atteggiamento per cui tendiamo a considerarli "santi"; non siamo, cioè, quasi mai in grado di metterli in discussione, mentre tu suggerisci di adottare un punto di vista femminista. In che modo possiamo mettere in discussione i dati e superare questo atteggiamento? 

I dati sono, come dicevo, la fotografia del mondo. Senza un approccio critico, non facciamo altro che "softwarizzare" la società di oggi, metterla in codice. Così poi, quando questi dati vengono messi dentro una macchina, quello che la macchina farà sarà semplicemente lo specchio dei dati che ci sono dentro. Questa è una delle ragioni – non l'unica – per cui l'intelligenza artificiale è biased (impregnata di pregiudizi, ndr). Queste cose sono reali e hanno un impatto sulla vita delle persone. 

Puoi farci un esempio?

Nei Paesi Bassi, il governo locale ha deciso di usare un algoritmo per determinare chi potesse avere accesso a un beneficio dello stato. Quando questo strumento è stato creato, è stato definito che c'era una probabilità più alta che alcune persone defraudassero il sistema. E siccome chi lo aveva progettato aveva determinato che la doppia cittadinanza fosse un proxy per essere considerati più a rischio di defraudarlo, quello che è successo in seguito è che questi benefit sono stati immediatamente sospesi a famiglie di persone immigrate. Con la conseguenza per cui ci sono state famiglie che sono finite sulla soglia della povertà, bambini che sono stati tolti alle famiglie e addirittura dei casi di suicidio. 

Quindi in casi come questi di chi sono le responsabilità?

La responsabilità è di chi ha creato questo sistema, perché ci vuole un approccio critico. Tutto quello che va dentro l’AI va manipolato. Per questo diciamo che ci vogliono più donne, – più donne di colore, più donne di ogni provenienza – persone di ogni nazionalità nelle stanze dove si fa codificazione e programmazione. Perché il punto vero è che questi dati, questi parametri, non sono neutri.

In che modo tutto questo ha un impatto sulla vita delle donne?

Quando su Facebook o su un altro programma vediamo che gli annunci su prodotti per pulire la casa, o gli annunci di lavoro che pagano meno vengono dati alle donne e non agli uomini, è perché Facebook ha come interesse – corretto, perché è un business – quello di massimizzare il numero di annunci che vengono cliccati, perché risponde al cliente. In altre parole, massimizza quando offre qualcosa che risponde alla realtà. Questo è un tema politico: c'è un conflitto profondo tra quello che è giusto come obiettivo e quella che invece è la realtà di oggi. Per questo ci vogliono le regole, per questo i dati vanno guardati in maniera critica.

Quindi come si traduce questo nella realtà?

Se consideriamo alcune questioni mediche dove abbiamo pochissimi dati riguardanti le donne, come la salute cardiovascolare, i dati sull'infarto e su questo tipo di malattie sono stati per decenni raccolti solo sugli uomini. Per questo molte donne che hanno questi problemi e chiedono aiuto non ricevono risposte adeguate. Io nel mio libro parlo di violenza, in questo senso, perché la creazione di database che poi vanno in pasto all'intelligenza artificiale non è qualcosa di neutro: qualcuno viene elevato e diventa membro di quel database, mentre qualcun altro viene lasciato fuori. È una scelta politica. Se io voglio sapere quante persone in una detereminata città subiscono violenza domestica e lo chiedo alla polizia, mi verrà dato un numero diverso rispetto a quello che mi tornerebbe indietro se lo chiedessi anonimamente alle donne. E quale dato inserirei nell'intelligenza artificiale? Quello dato dalla polizia o quello dato dalle donne? Il dato va manipolato, non è divino. Questo è un tema fondamentale, lo dico sempre alle persone giovani che entrano in questo ambito e a me stessa. Perché a me l’intelligenza artificiale piace a tal punto che la critico e la distruggo, perché voglio che funzioni per tutte e tutti e che non si trasformi nell'ennesimo strumento del patriarcato.

An artificial revolution

L'altro aspetto politico di cui parli nel tuo libro è il collegamento tra gli algoritmi (altra parola che potrebbe suonare vaga) e la crescita dei populismi. Come funziona e come potremmo fare – soprattutto le persone che sono a maggior rischio di essere oggetto di manipolazione – a cambiare e magari anche a difenderci?

Rispetto a quando ho scritto il libro, c’è stata l’esplosione di ChatGPT, che ha creato questa enorme capacità generativa. La differenza fra ChatGPT e gli altri strumenti è che ChatGPT è nelle case di tutti: io lo uso quotidianamente, così come la maggior parte delle persone che conosco. Vi racconto un episodio: quando ho chiesto a ChatGPT di scrivere la storia di un ragazzo e una ragazza che sono all'ultimo anno di scuola e devono decidere cosa fare all'università, ChatGPT mi ha risposto con una storia in cui il ragazzo diceva che avrebbe studiato ingegneria e la ragazza arte, perché non capisce niente di numeri... 

Qual è il rischio più grande di queste narrazioni automatiche?

Che diventano software e noi non ci ne accorgiamo nemmeno, e così diventano più difficili da sconfiggere. Ad ogni modo, il rischio più grosso dell'AI generativa sono le fake images (immagini false): su questo dobbiamo impegnarci tutti, perché se per i bias abbiamo le soluzioni, e ci stiamo lavorando, le fake images rappresentano un rischio drammatico, perché con l’AI generativa possono essere create nel giro di cinque secondi. Questo ha un impatto enorme sull’assetto democratico dei nostri paesi, se pensiamo all’uso che può esserne fatto nelle campagne elettorali, dai populismi. Dobbiamo fare molta attenzione.

Che soluzioni vedi a questo problema?

Ne vedo almeno due. Come sempre nell'AI, la soluzione è tecnologica, ma anche sociale, perché si tratta di strumenti socio-tecnici. La soluzione tecnologica è quella di imparare lo sviluppo dell'imprinting dell'immagine, per cui possiamo sapere se un'immagine è stata creata artificialmente. E qui ci vogliono le regole; ci vuole, cioè, la responsabilità della politica. Ci sono poi altre soluzioni tecniche, fra cui per esempio usare l’intelligenza artificiale per andare a scovare quelle immagini che possono essere false. E poi la risoluzione sociologica, sociale, che è quella dell’educazione. Quella di insegnare, cioè, alle persone ad avere quello che io chiamo "distrust by default": dobbiamo, cioè, avere quella sfiducia che ci porti a pensare che dobbiamo verificare che qualcosa sia vero, non che sia falso.

In Europa però, rispetto agli Stati Uniti o ad altri paesi, abbiamo uno strumento, e tu ne parli nel libro, che è la privacy: in che modo il diritto alla privacy può (e dovrebbe) essere un diritto fondamentale, e soprattutto in che modo ci può aiutare a interagire in modo più sano con l'intelligenza artificiale?

Non è una domanda semplice, perché il diritto alla privacy non si può scindere dalla competizione: viviamo in un mondo digitale dominato da poche, grandi compagnie – le cosiddette big tech. Si sta ponendo una questione generale e globale, in cui il mondo si sta interrogando sulla potenza di queste compagnie tecnologiche, che sono diventate utility companies, che ci offrono, cioè, dei servizi. Che sono comodi. E con tutti i limiti che ne derivano, queste compagnie dettano anche le regole. 

Quindi cosa vuol dire "privacy" oggi?

Vuol dire che se io sono su Internet e cerco delle cose, non voglio ricevere dei suggerimenti che mi dicano cosa comprare successivamente. Perché comprare, leggere un libro, è più bello se lo scegliamo in base alle condizioni del momento, agli incontri che facciamo o al suggerimento di un'altra persona. La privacy oggi è autonomia, libertà di fare le proprie scelte senza subire le conseguenze di quello che in gergo tecnico si chiama clustering, cioè delle correlazioni che fanno i dati in base ai nostri comportamenti sul web. E soprattutto, la privacy è una questione predittiva.

Che cosa significa, esattamente?

Questa è la parte secondo me più difficile, in cui dobbiamo veramente entrare dentro il problema per capirlo: vuol dire che in base ai dati si possono fare delle predizioni, o meglio delle correlazioni, come dicevamo, che si basano sul presupposto che il futuro debba essere uguale al passato. Ma cos'è la vita se non liberarsi dalle catene del passato? Il concetto di privacy non può equivalere a leggere 10 pagine di privacy notices. Però abbiamo una responsabilità, perché la cittadinanza digitale è importante. Possiamo fare una scelta, è come quando andiamo al supermercato e prima di scegliere un prodotto leggiamo la lista di tutti gli ingredienti. 

Qual è la cosa migliore che possiamo fare per contribuire a un cambiamento da un punto di vista femminista?

Visto che adesso sembra che sia arrivato il momento delle regole, la prima cosa da fare, secondo me, è rendersi conto che, in parte, le regole ci sono già. Quindi, siccome l'intelligenza artificiale è già utilizzata dalle nostre città, dalle amministrazioni e dai luoghi di lavoro, la prima cosa che dobbiamo fare è esercitare i nostri diritti come li esercitiamo nel mondo reale. In altre parole, essere cittadini e cittadine del mondo digitale come lo siamo nel mondo fisico. La seconda è non mitizzare l'AI. Parlarne. Persone come Elon Musk, che mistificano l’AI, lo fanno perché voglio vendere. Perché così non viene fatto il lavoro sui bias e sui rischi della disinformazione, che è un lavoro duro e difficile. Guardate il documentario Coded bias, e vedrete come le donne, soprattutto le donne nere, su questi temi lavorano già da almeno vent'anni. Questi strumenti però vanno utilizzati. Infatti, l’altra cosa che possiamo fare è provare a utilizzarli per cose intelligenti. Per esempio per la preservazione di una lingua, per qualcosa che veramente abbia un valore. Infine, il dibattito pubblico su questi temi è fondamentale.

Qual è, invece, la cosa peggiore che possiamo fare?

Pensare che si tratti di qualcosa di lontano da noi, mentre in realtà è qualcosa che ha a fare con la nostra vita quotidiana, che non è complicato è che possiamo utilizzare a nostro vantaggio. Sicuramente abbiamo bisogno di più donne dell'intelligenza artificiale che facciano programmazione, su questo non c’è dubbio; ma ci vogliono più donne nel decision-making su come si utilizza l'intelligenza artificiale. È, di nuovo, una questione di potere.

Il testo di quest'intervista è una trascrizione del panel "Per un femminismo delle nuove tecnologie", curato da inGenere il 30 settembre 2023 al Festival di Internazionale a Ferrara.



Commenti

Post popolari in questo blog

25 novembre CONTRO LA VIOLENZA SULLE DONNE

UNA LUCE NEL BUIO di Daniela Fava

Intervista alla Drammaturga MARIA ALTOMARE SARDELLA