Articoli e inchieste

Un algoritmo non ci salverà. Il problema siamo noi

I poteri taumaturgici che l’intelligenza artificiale non ha (ma a cui ci piace credere)


Tempo di lettura: minuti

Un mondo di dati

L’intelligenza artificiale è fatta di dati, in un sistema costruito per estrarre correlazioni: se nei dati ci sono delle contraddizioni rispetto a quello che noi pensiamo, queste vengono ereditate dai modelli. I dati che la istruiscono, ammesso che siano raccolti correttamente come dovrebbero essere (e non sempre lo sono), rappresentano il mondo per quello che è e non per quello che noi pensiamo che sia, per cui i dati incorporano delle correlazioni che sono contrarie ai nostri princìpi, alla nostra idealizzazione del mondo. Inoltre, gli utenti tendono a pensare che la macchina dica il giusto, ma tutte le predizioni che le macchine producono sono fondate su basi statistiche e presentano quindi un margine di errore.

Il bias implicito nei dati

Tra le diverse distorsioni che un sistema basato sui dati incontra sulla sua strada – dalla scelta del data set, alla raccolta, alla soggettività della scelta dei dati da esaminare fino alla loro gestione – ce n’è una particolarmente insidiosa: il bias implicito nei dati.

Immaginiamo di prendere i dati di tutti i dipendenti di una grandissima azienda: percorso di carriera, titoli di studio, storia della persona, e usarli per determinare qual è lo stipendio, il premio giusto da dare per uno scatto di carriera: alla fine quello che faremmo non sarebbe altro che cristallizzare il fatto che le donne guadagnano meno degli uomini. Ciò si determina perché  purtroppo questa è la realtà, e questa realtà è catturata nei dati (se li raccogliamo e gestiamo correttamente) e i modelli statistici descrivono la realtà per quello che è e non  per quello che noi pensiamo o vorremmo che fosse. Se li usassimo acriticamente faremmo perdurare e consolidare questa distorsione sociale. L’intelligenza artificiale non ci dà la risposta “giusta”. Ci dà una risposta. Il “giusto” o “sbagliato” è legato alla nostra interpretazione della risposta che la macchina computa sulla base degli algoritmi e dei dati che le abbiamo fornito. Discriminazione in ingresso, discriminazione in uscita.

L’automation bias

C’è un’altra forma di bias rilevante che si determina nell’utilizzo delle macchine per valutazioni che in precedenza erano effettuate dalle persone, il cosiddetto automation bias, che si determina perché le persone, abituate al fatto che i computer e le calcolatrici forniscono risposte precise, tendono a confermare acriticamente le predizioni della macchina. In alcuni casi vi sono situazioni in cui l’utente ha tutti gli incentivi a confermarle, perché pone l’utente stesso al riparo da critiche e censure. Ad esempio, in campo medico, un dottore che confermi una predizione della macchina può porsi al riparo da censure affermando che in scienza e coscienza quella fosse anche la sua opinione (anche se in realtà non lo era) giacché “lo ha detto anche l’intelligenza artificiale”.

La scarsa conoscenza dei meccanismi alla base dell’Intelligenza Artificiale, il condizionamento che ci offre la filmografia e la narrazione interessata di molti fornitori inducono nelle persone l’impressione  – errata – che questa tecnologia abbia facoltà taumaturgiche che invece non ha.

Le fallacie del soluzionismo tecnologico

La distorsione più pericolosa è cognitiva e attinge a una sorta di religione, una pseudoscienza: il soluzionismo tecnologico è un bias sociale che oggi impedisce alla società di fare un uso corretto delle intelligenze artificiali. Il problema non è lo strumento, ma le modalità di utilizzo dello stesso.

L’utilizzo delle telecamere per la prevenzione della criminalità esemplifica questo fenomeno: c’è un problema di microcriminalità a Roma e si installano 15 mila telecamere collegate con l’intelligenza artificiale (una ogni 130 metri). Ci si aspetterebbe che l’intelligenza artificiale ci consenta di riconoscere i criminali, di trovarli e intervenire immediatamente. Ma non è così, perché la polizia ha carenze strutturali di risorse e non riesce a intervenire in tempo reale, non risolvendo il problema della criminalità. La città di Firenze ha il maggior numero di telecamere per abitante ma è sul podio per l’indice della criminalità.

Nuove tecnologie, vecchie illusioni

Durante il Covid, in Cina come negli USA (anche in atenei prestigiosi) si affermava di poter riconoscere una persona infetta con una telecamera, con una intelligenza artificiale che “riconosceva il COVID” nei movimenti e i suoni dei colpi di tosse. L’Unione Europea ha respinto richiedenti asilo ai confini dell’Europa perché non meritori di accoglienza in quanto provenienti da paesi non a rischio. Come si capiva se un migrante mentiva o meno sul suo paese di provenienza? Sulla base di “microespressioni facciali” riconosciute da una intelligenza artificiale.

La frenologia ci prometteva di individuare la predisposizione criminale sulla base di misure del cranio. Era considerata una scienza e invece ha prodotto grandi ingiustizie per decenni.

La tecnologia è molto potente, ma ha anche limiti. La narrazione attuale rilanciata dai media induce le persone a ritenere che qualunque problema possa essere risolto nel modo “giusto” dall’intelligenza artificiale, fino ad arrivare al superamento della politica perché la macchina “sa” come e meglio degli uomini. È una sciocchezza sesquipedale, molto pericolosa.

Macchine superiori agli esseri umani? Solo se ci paragoniamo a loro

Ci ammonisce Federico Faggin, il grande fisico, inventore del microprocessore e creatore di una delle prime aziende produttrici di reti neurali nella Silicon valley: le macchine sono superiori a noi solo se noi ci consideriamo delle macchine. La mia calcolatrice è infinitamente migliore di me a fare i calcoli. Wikipedia “sa” infinite cose più di me, ma non mi sfiora nemmeno lontanamente l’idea che io sia inferiore a loro. Lo sono solo quando mi confronto a loro. Non facciamoci fuorviare dal fatto che adesso, sono in grado di produrre sequenze di simboli, giustapponendo parole o pixel in una forma che a noi appare sensata

Dobbiamo capire che i termini “Intelligenza Artificiale” sono una metafora e capirne i reali limiti e potenzialità che non sono quelli raccontati da Hollywood o magnificati dai fornitori di tecnologie e dalle loro corti (che purtroppo includono anche moltissimi accademici la cui attività e prominenza è legata in larga misura a questi fornitori).

Quest’anno l’accademia svedese ha assegnato il premio Nobel per la fisica a John Hopfield e Jeoffrey Hinton per il loro lavoro sulle reti neurali, considerate le fondamenta per la moderna intelligenza artificiale. Dopo anni passati a lavorare sui modelli di Google Brain, lo scorso anno Hinton ha iniziato a sensibilizzare sulle conseguenze di una IA applicata  senza regole e fuori controllo. Al netto di scenari catastrofici, dovremmo iniziare a preoccuparci di come conoscerla e utilizzarla correttamente, imparando ad anticipare e quindi evitare le possibili distorsioni.

_____________

Articolo tratto da

Leggi la Newsletter

La Fondazione ti consiglia

Restiamo in contatto