Articoli e inchieste

Iniquità al quadrato
Come gli algoritmi amplificano i pregiudizi nelle parole


Tempo di lettura: minuti

 “Go to hell, Google”

Nel 2021 Dora Vargha, professoressa di origine ungherese di Storia e Medical Humanities all’Università di Exeter, stava conducendo degli esperimenti con il traduttore automatico di Google: controllava come questo si comportasse nel passare da una lingua totalmente priva di genere come l’ungherese (nella quale né i sostantivi né i pronomi sono declinati al maschile o al femminile) a una lingua con il cosiddetto “genere naturale” come l’inglese (sostantivi privi di genere, pronomi con il genere). Finché aveva proceduto a inserire nel traduttore una sola stringa composta da pronome + predicato nominale o verbale per volta, Google aveva correttamente fornito la doppia versione in traduzione (es. ő mosogat > he/she washes the dishes); nel momento in cui aveva inserito nella finestra una sequenza di stringhe composte come sopra, improvvisamente il traduttore aveva iniziato ad assegnare – apparentemente in maniera arbitraria – uno specifico genere a ogni verbo: She is beautiful. He is clever. He reads. She washes the dishes. He builds. She sews (Lei è bella. Lui è intelligente. Lui legge. Lei lava i piatti. Lui costruisce. Lei cuce) e così via.

Insomma, per quanto l’input fosse completamente privo di genere, il traduttore aveva assegnato al genere femminile i lavori, le azioni più umili, o più “da femmine”, e a quello maschile quelli più prestigiosi, o più “da maschi”. Vargha aveva fotografato il risultato e l’aveva condiviso su Twitter, commentando concisamente “Go to hell, Google” (‘Vai all’inferno’, Google).

Sessisti: non gli algoritmi, ma i testi

La risposta non aveva tardato ad arrivare: Google replicò che non era l’algoritmo a essere sessista, ma i testi sui quali l’intelligenza artificiale del traduttore era stata addestrata: in altre parole, quelli prodotti da noi esseri umani nel corso di decine, forse centinaia di anni, digitali e digitalizzati, che alimentavano e alimentano l’applicazione; testi evidentemente carichi di pregiudizi e di stereotipi (di genere, certo, ma anche in riferimento a qualsiasi altra caratteristica che potenzialmente espone un essere umano a qualche forma di discriminazione). In pratica, se nella maggior parte dei testi l’aggettivo “beautiful” è riferito a una donna, o il verbo “to read” a un uomo, l’algoritmo assegnerà il genere coerentemente a tali dati statistici.

In tale occasione, Google aveva anche aggiunto che, se quel giorno l’umanità avesse iniziato a scrivere solo testi bilanciati e ad alimentare solo con essi l’I.A., ci sarebbero comunque voluti più di cent’anni a produrre una risposta priva di pregiudizi da parte di quest’ultima. Di conseguenza, avrebbe iniziato a implementare una serie di misure correttive per l’algoritmo, in modo da controllare l’iniquità dei suoi risultati (cosa che poi ha fatto, con risultati altalenanti, come vedremo tra un attimo).

Ingiustizie a catena: società, linguaggi e tecnologie

Questo lungo aneddoto serve per fotografare con precisione una verità troppo spesso ignorata: quella che viene pomposamente chiamata intelligenza artificiale è una tecnologia che, basandosi su quanto è stato già detto e scritto per simulare un comportamento creativo, “umano”, non può che riprodurre e anzi amplificare tutte le storture contenute nell’enorme massa di testi con la quale viene alimentata. Una società percorsa da iniquità e disuguaglianze come quella in cui viviamo, dunque, che tradizionalmente ha prodotto testi pieni di iniquità e disuguaglianze, che rispecchiano queste impostazioni socioculturali, sta dando enorme risalto a una tecnologia che non solo replica fedelmente tali iniquità e disuguaglianze, ma le rafforza. Anche perché è in crescita la quota di testi che sono a loro volta prodotti da I.A. e finiscono anch’essi ad alimentare altre applicazioni di intelligenza artificiale, in una specie di circolo vizioso.

Del resto, là dove si applicano dei correttivi, succedono cose strane: nel febbraio 2024 l’applicazione di intelligenza generativa Gemini di Google ha creato l’immagine di una serie di soldati del Terzo Reich dalla pelle nera, un falso storico decisamente implausibile. Questo risultato è stato prodotto dall’algoritmo correttivo di Gemini, che senza tale correzione tenderebbe a dare risultati troppo poco variegati dal punto di vista etnico.

Ancora una volta, dunque, la tecnologia è iniqua: ce lo spiegano data scientist come Donata Columbro e Diletta Huyskes, o ancora, come Lilia Giugni, che da tempo lavora per denunciare come tutta la filiera del digitale, dalle miniere di metalli rari ad, appunto, le applicazioni che usiamo quotidianamente, aumentino il divario tra le persone che hanno accesso al benessere e quelle che ne sono a vario titolo escluse, parzialmente o completamente. E alla base di queste crescenti iniquità ci sono, in fondo, sempre loro, le parole, per esempio quelle con le quali raccontiamo i fatti: quelle di cui tante persone minimizzano la rilevanza, magari rifugiandosi dietro alla frase “I problemi sono ben altri”. Come se le parole fossero un accessorio, una questione secondaria.

L’importanza delle parole

Di certo, il lavoro sulle parole ha senso quando queste rimangono inchiavardate alla realtà: la relazione complessa tra questi due piani va riconosciuta e preservata, e non avrebbe senso limitarsi a un maquillage lessicale di superficie. Ma tutto l’ambito delle I.A. dipende direttamente dalle parole che scegliamo di usare, e che poi, volenti o nolenti, che ne siamo o meno consapevoli, finiscono in rete, e da lì nei corpora di testi, ad alimentare le varie applicazioni che si avvalgono, appunto, dell’I.A.

Le parole sono importanti; molto più nel senso che ho appena cercato di illustrare che non sul piano della correttezza normativa: una grafia errata, un congiuntivo non usato dicono molto meno di  noi che non l’insistenza nel continuare a usare parole stereotipate oppure offensive nei confronti di questa o quella categoria (ad esempio ne*ro, apparentemente irrinunciabile da parte di molte persone bianche, che ne rivendicano la non offensività). La maggior parte delle persone, consapevole di non avere pubblici oceanici come coloro che appartengono alla categoria definita influencer, ritiene irrilevante il proprio ruolo nella faccenda; e così, in un certo senso, pensa di non avere responsabilità rispetto al comportamento iniquo dell’intelligenza artificiale. È invece ora che ce ne rendiamo conto: le nostre azioni linguistiche  hanno un impatto sulla collettività, esattamente come buttare un mozzicone di sigaretta o un involucro di plastica in terra contribuisce in maniera negativa alla pulizia e alla vita dell’intero pianeta.

Nel bene o nel male, ogni piccola azione conta.

_____________

Articolo tratto da

Leggi la Newsletter

La Fondazione ti consiglia

Restiamo in contatto