Quando l’estetica rivela l’etica dell’IA

Immaginari, algoritmi e potere nell’era della disumanizzazione automatica


Articolo tratto dal N. 28 di Se mi banni non vale Immagine copertina della newsletter

Negli ultimi mesi, le estetiche generate dall’intelligenza artificiale hanno invaso lo spazio pubblico, circolando nei social media, nella cultura visiva popolare, nei prodotti informativi e persino nella propaganda politica.
Come ha scritto Gareth Watkins su New Socialist, ci troviamo davanti a una “nuova estetica del fascismo”: un immaginario visivo tecnocratico, seriale, disumanizzante, che riflette e rafforza logiche di potere autoritarie e reazionarie.
Un esempio emblematico è il video “Trump Gaza”, in cui l’IA immagina la Striscia di Gaza trasformata in un resort di lusso, con immagini surreali di Donald Trump e Benjamin Netanyahu a bordo piscina. Un contenuto disturbante non solo per la distorsione politica, ma anche per la sua estetica sintetica, patinata e profondamente alienante.

Le estetiche dell’IA

Le estetiche che l’intelligenza artificiale sta rendendo pervasive non sono casuali, né semplicemente brutte, banali o ripetitive: sono il riflesso visivo di un’impostazione etica e politica ben precisa.
Rivelano, in forma sintetica e immediata, ciò che sappiamo da tempo sulle logiche egemoniche che modellano queste tecnologie: visioni del mondo ossessionate dall’efficienza, indifferenti alla complessità sociale, fondate su una totale mancanza di empatia, rispetto e solidarietà.
In questo senso, l’estetica dominante dell’IA funziona come un sintomo – o meglio, come una rivelazione – dell’etica (o della sua assenza) incorporata nei sistemi che le generano. Proprio per questo, le concezioni che continuano a presentare l’IA come uno strumento neutro e malleabile appaiono sempre più deboli: non reggono di fronte all’evidenza concreta di ciò che queste tecnologie producono, rendono visibile e normalizzano. Le immagini parlano, e lo fanno con la voce di chi detiene il potere di progettarle.

“Non è colpa della macchina, ma dell’essere umano”

Una visione ancora oggi molto diffusa considera l’IA un semplice strumento neutro, da utilizzare “bene o male” a seconda delle intenzioni umane. Questa concezione, con radici profonde nella storia del pensiero tecnologico moderno, continua a esercitare un forte fascino nel dibattito pubblico contemporaneo. La si ritrova, ad esempio, in un recente articolo di Alberto Puliafito su Internazionale, dove si sottolinea che “non è colpa della macchina” ma dell’uso che ne fa l’essere umano. “Smettere di giudicare le IA come se fossero persone e cominciare a trattarle per quello che sono: utensili”, scrive esplicitamente Puliafito.
Si tratta di una posizione non isolata, che trova eco anche in diversi ambienti legati all’innovazione digitale e al design tecnologico, dove si insiste sull’idea che le IA siano strumenti neutri, semplici estensioni della volontà umana, e che la responsabilità etica ricada unicamente su chi le utilizza. Una visione che si collega a ciò che José van Dijck ha definito dataismo: l’ideologia secondo cui i dati, e le tecnologie che li organizzano, sarebbero intrinsecamente oggettivi, affidabili e capaci di sostituire le forme umane di giudizio.

La fede algoritmica nell’ideologia tecnocratica

Tuttavia, questa prospettiva tende a oscurare le condizioni strutturali e a sorvolare sul fatto che non tutti gli attori in gioco hanno lo stesso potere.
Alcuni, grandi piattaforme tecnologiche, élite politiche ed economiche, centri di calcolo e governance opaca,  esercitano un’influenza sproporzionata nella definizione di cosa può essere fatto, visto, generato. Le tecnologie non nascono nel vuoto: sono modellate da interessi concreti, da visioni del mondo, da rapporti di forza profondamente asimmetrici. Ed è proprio in queste visioni del mondo che si radica una vera e propria fede algoritmica.
Un esempio eloquente viene dalle dichiarazioni dello Speaker della Camera statunitense Mike Johnson, a proposito del ruolo di Elon Musk nel cosiddetto Department of Government Efficiency (DOGE), l’ente incaricato di riformare la pubblica amministrazione americana. Johnson ha affermato: “Elon has cracked the code. He is now inside the agencies. He’s created these algorithms that are constantly crawling through the data. And as he told me in his office, the data doesn’t lie.”
È una frase che condensa perfettamente l’ideologia tecnocratica che affida agli algoritmi la guida della sfera pubblica, aggirando i processi deliberativi, svalutando l’esperienza umana, e trasformando il governo in una mera questione di calcolo. 

Gli algoritmi non sono mai neutri

Come ci ha insegnato Langdon Winner, gli oggetti tecnologici non sono mai solo utensili: hanno una loro politica, che emerge nel modo in cui sono progettati, implementati, regolati. Le IA operano attraverso dataset parziali, metriche ottimizzate sull’efficienza e modelli costruiti per favorire l’engagement: tutto ciò non è neutro, ma struttura attivamente la realtà sociale, culturale e simbolica.

Nel mio lavoro con Tiziano Bonini in “Algoritmi per resistere” (Oscar Mondadori, 2025), abbiamo mostrato come le tecnologie algoritmiche non si limitino a rispondere a comandi, ma organizzino l’accesso all’informazione, determinino visibilità e marginalità, e incidano direttamente sulla possibilità di partecipazione democratica.
L’idea che basti “imparare a usarle meglio” rischia di nascondere la dimensione sistemica di questi processi: la concentrazione del potere computazionale, l’estrattivismo dei dati e la riproduzione di immaginari normalizzati.

IA e autoritarismo

Oggi si impone una riflessione più profonda sulle infrastrutture che rendono possibile la generazione automatica di contenuti. Perché non tutti gli output sono ugualmente accessibili, visibili o diffondibili, e ciò che appare come “scelta individuale” è spesso determinato da condizioni strutturali invisibili. A monte ci sono configurazioni di potere precise, portate avanti da attori sociali ed economici che promuovono un’estetica coerente con la loro visione del mondo: un’estetica priva di empatia, di rispetto, di solidarietà.

Un riferimento importante in questo senso è anche il libro di Dan McQuillan, “Resisting AI: An Anti-fascist Approach to Artificial Intelligence”, che analizza in profondità il legame tra intelligenza artificiale, esclusione e autoritarismo. Pur condividendo molte delle sue preoccupazioni, nel nostro lavoro adottiamo una prospettiva più aperta: non ammantiamo queste tecnologie di alcun romanticismo, ma lasciamo spazio all’ambiguità, all’inatteso, alla possibilità di appropriazioni critiche e pratiche trasformative.

Non è che l’IA rischi di diventare uno strumento oppressivo: lo è già, in molte delle sue forme attuali. I rischi non sono futuri, ma sono già presenti, visibili, documentati. Incidono sulle vite di chi viene profilato, licenziato, estromesso o escluso da sistemi che classificano, semplificano e decidono.

La questione, allora, non è soltanto come usiamo queste tecnologie, ma chi le progetta, chi le governa, a quali fini. E soprattutto: con quali valori. Serve una politica delle tecnologie che non si limiti a correggere gli abusi o a moltiplicare gli usi “virtuosi”, ma che agisca sul piano dell’immaginazione politica e della pratica trasformativa. Per costruire sistemi più giusti, inclusivi e aperti alla complessità della vita democratica.

 

Restiamo in contatto