Algoritmi che discriminano: il nuovo volto del razzismo digitale

Il razzismo digitale: quando gli algoritmi discriminano

Negli ultimi anni, l’intelligenza artificiale è entrata con forza nella nostra quotidianità. Dalla scuola al lavoro, dai social network ai servizi pubblici, gli algoritmi sembrano ormai governare gran parte delle nostre scelte. Ma dietro la promessa di neutralità, efficienza e oggettività si nasconde un rischio che non possiamo ignorare, che comprende la capacità dell’IA di riprodurre e amplificare i pregiudizi razziali già presenti nella società. Infatti, come spiegato in un articolo pubblicato da WExecutive, l’IA e gli algoritmi non hanno inventato il razzismo ma lo automatizzano, lo rendono più silenzioso e più difficile da contestare.

Questa consapevolezza si dimostra ancora più urgente perché mentre i social network amplificano i discorsi d’odio dato che generano engagement, e se i motori di ricerca possono restituire risultati stereotipati, l’IA compie un passo ulteriore, dato che prende decisioni che incidono direttamente sulla vita delle persone.

Nel mondo del lavoro, ad esempio, fa riflettere un dato di ricerca pubblicato in Inghilterra nel 2020. I ricercatori hanno scoperto che le minoranze etniche hanno maggiori probabilità di rimanere senza lavoro perché le aziende tendono a rifiutare le candidature di persone il cui nome suggerisce una loro non-bianchezza oppure origine diversa da anglosassone.

Questo fatto è molto rilevante perché risuona con altre recenti riflessioni presentate dal Garante della Privacy in Italia che, ha lanciato nel 2025 un richiamo significativo, rivelando che diversi sistemi di selezione automatizzata del personale (conosciuti come ATS, o Applicant Tracking Systems) penalizzavano candidati con nomi stranieri o afrodiscendenti.

In aggiunta, secondo diversi esperti del settore delle risorse umane, questi strumenti analizzano migliaia di CV per selezionare quelli più adatti a una posizione. Tuttavia, ogni ATS viene allenato e programmato con dati precedenti, in tale modo che, molto probabilmente, il suo algoritmo continuerà a scartare le minoranze etniche in modo automatico.

Dunque, alla luce di tali premesse, risulta evidente che l’IA non è un’entità neutrale, ma in realtà uno specchio dei dati su cui viene addestrata. Se quei dati portano con sé decenni di discriminazioni e pregiudizi, l’algoritmo non fa altro che consolidarle, trasformando pratiche discriminatorie in decisioni automatizzate che appaiono “oggettive” solo perché prodotte da una macchina.

E non è la prima volta che la tecnologia viene presentata come uno spazio libero da pregiudizi. Negli anni ’90, agli albori di Internet, molti studiosi sostenevano che il cyberspazio sarebbe stato un ambiente colour blind (o daltonico), capace di sospendere le categorie razziali e permettere alle persone di sfuggire a razzismo, sessismo e disuguaglianze sociali. In questo contesto, Mark Hansen, ad esempio, immaginava un ambiente digitale in cui l’attribuzione automatica di tratti visibili venisse sospesa, creando una sorta di “grado zero” della differenza razziale.

Ma questa visione utopica è stata presto smontata. La sociologa Jessie Daniels ha denunciato l’idea di un cyberspazio neutrale come un “mito pervasivo”, mostrando come Internet fosse già diventata un terreno fertile per il cyberrazzismo e per la diffusione della supremazia bianca online. Allo stesso modo, gli autori del libro Race in Cyberspace hanno sottolineato che la razza è importante nell’ambiente digitale proprio perché chi abita il cyberspazio è già plasmato dalle dinamiche razziali offline. In altre parole, non esiste tecnologia che possa essere neutrale oppure colour blind in una società che non lo è.

In questo contesto, chiama l’attenzione uno esperimento condotto per l’Università di Lipsia in Germania insieme con la startup americana Hugging Face. I ricercatori hanno usato l’IA per generare 96.000 immagini di persone di diverse etnie, genere e professioni. Analizzando le immagini, hanno scoperto che chiedendo all’IA di mostrare persone in posizioni di autorità (come CEO o direttori), nel 97% dei casi ha restituito immagini di uomini bianchi. In contropartita, chiedendo di mostrare un nativo americano, l’immagine che sono venute fuori sono state quelle di persone che indossano il copricapo di piumi.

Oltretutto, nel mondo della politica internazionale, lo scorso febbraio, un episodio che ha suscitato grande indignazione e disagio è stato un video generato dall’IA che raffigurava Barack e Michelle Obama come se fossero delle scimmie. In questo disgustoso episodio, uno degli aspetti che ha causato ancora più stupore e tristezza è la normalità con cui l’account ufficiale della Casa Bianca ha replicato questo contenuto e, in nessun momento, si è scusato per l’azione.

Nel contesto italiano, nell’aprile 2025, la Lega è stata denunciata all’Agcom dal Pd e dall’Avs anche per immagini generate dall’IA che ritraevano giovani uomini neri nord-africani come abitualmente violenti contro le donne bianche. Tuttavia, è dispiacente vedere come alcune persone non riescano a imparare nulla dalla storia, poiché il discorso xenofobo e razzista sottointeso in questo tipo di post generato dall’IA è molto simile a una vignetta satirica pubblicata nel 1911 sulla rivista Life negli Stati Uniti che stigmatizzava gli immigrati italiani.

Nella descrizione si legge: “un chilo di spaghetti e una bandana rossa, lo stiletto e i pantaloni di velluto; aggiungi l’aglio da inghiottire a grandi bocconi e un talento a lustrare stivali”. Inoltre, il titolo Wop è un termine abbastanza offensivo dello slang americano, specificatamente rivolto agli italiani, che sta per guappo o cafone. Deriva da “WithOut Passport o WithOut Papers” (senza passaporto o senza documenti) ma la pronuncia anglosassone uàp fa esplicito riferimento alla parola guappo.

In altre parole, la storia si ripete, anche se con mezzi diversi. In passato, si trattava delle vignette satiriche pubblicate su riviste settimanali. Oggi, sono dei meme generati dall’intelligenza artificiale e diffusi sui social network.

Uno schema simile emerge anche nel mondo dello sport, perché quando dei calciatori come Vinicius Júnior, Mario Balotelli, Mehdi Dorval e molti altri vengono insultati in campo, la notizia si diffonde sui social e viene amplificata dagli algoritmi che privilegiano contenuti controversi, polemiche e divisivi. Dunque, l’IA non solo riflette la discriminazione ma la moltiplica, trasformandola in spettacolo e carburante per la spirale dell’odio online e offline.

Il problema riguarda anche i giovani, che vivono immersi nei social e nelle interazioni con sistemi di IA. Secondo il rapporto Eurispes 2025, gli adolescenti italiani usano queste tecnologie con entusiasmo ma senza consapevolezza critica, diventando più esposti a contenuti discriminatori che gli algoritmi rilanciano perché polarizzanti e altamente coinvolgenti. Il razzismo digitale entra così nella loro quotidianità, normalizzato e quasi invisibile.

Detto questo, il punto cruciale è che l’IA non si limita a riprodurre il mondo così com’è ma invece lo cristallizza, rafforzando e normalizzando le disuguaglianze storiche. In questo modo, quando un algoritmo decide chi merita un lavoro, un prestito, un alloggio o una maggiore visibilità online, sta trasformando pregiudizi radicati in decisioni automatizzate, difficili da contestare e ancora più difficili da vedere.

Questo scenario crea una nuova forma di disuguaglianza che è silenziosa, incorporata nel codice e priva di un responsabile umano identificabile. È ciò che studiosi come Safiya Noble la definisce algorithmic oppression, Tarcísio Silva chiama razzismo algoritmico e Virginia Eubanks definisce automated inequality, ossia una discriminazione che non ha bisogno di intenzioni razziste esplicite per produrre effetti razzisti molto concreti.

Guardando oltre i confini italiani, possiamo cogliere un parallelismo con il mito della “democrazia razziale” brasiliana, che per decenni ha sostenuto che il razzismo non esistesse perché la società era “mista” e “armoniosa”. Ma, in realtà, questo mito ha storicamente servito il proposito di mascherare le disuguaglianze e naturalizzare privilegi simbolici e materiali legati alla bianchezza.

Già in Italia, spesso, si ripete che il razzismo sia un problema marginale, confinato a pochi episodi isolati oppure che succede solo altrove e non in Italia perché “siamo tutti brava gente”. Però, l’IA rischia di consolidare queste narrazioni, rendendo ancora più difficile riconoscere le discriminazioni sistemiche. E quando la discriminazione è incorporata in un algoritmo, diventa ancora più facile negarla.

Però, il razzismo digitale non è inevitabile e neanche doveva essere considerato come un elemento indissolubile dello scenario digitale. Possiamo contrastarlo attraverso regolamentazioni efficaci, audit indipendenti, dataset più rappresentativi, trasparenza algoritmica e un’educazione digitale critica che aiuti i cittadini (soprattutto i giovani) a riconoscere i bias. Ma soprattutto serve la partecipazione delle comunità marginalizzate nella progettazione dei sistemi, perché nessuna tecnologia può essere equa se chi la subisce non ha voce nel definirla.

Come è stato chiaro in questo articolo, l’intelligenza artificiale non è un’entità neutrale, ma in realtà è uno specchio della società. Dunque, se essa è segnata da pregiudizi, è facile capire che l’IA li riflette e li amplifica. Ma la tecnologia non è un destino. È un prodotto umano, e come tale può essere ripensata, regolata e trasformata. Il primo passo è smettere di credere al mito della neutralità tecnologica e che essa sia incapace di commettere degli errori. Il secondo è costruire una cultura digitale che renda visibili i bias, li riconosca e li combatta. Solo così potremo immaginare una società in cui la tecnologia non sia un nuovo volto del razzismo, ma un alleato nella lotta per l’uguaglianza.

L’Autore: Luiz Valério P. Trindade è sociologo e ricercatore indipendente. Vive a Roma e si occupa di razzismo digitale, discorsi d’odio sui social e dinamiche di esclusione nelle società contemporanee.

Articoli correlati

social a.r.

1,264FansMi piace
4,280FollowerSegui
- Advertisement -

libri e letteratura