
Oltre alla censura e alle limitazioni palesi, c’è una questione meno visibile – e proprio per questo ancora più importante – che condiziona le risposte degli strumenti di intelligenza artificiale: i bias algoritmici
Quando è stato presentato, nelle scorse settimane, il nuovo modello di intelligenza artificiale cinese DeepSeek è stato definito “rivoluzionario”: perché gratuito per gli utenti finali, perché utilizza pochi chip e in questo modo abbassa i costi (e i consumi) e perché il suo codice è open source, ovvero chiunque può accedere al codice dello strumento e utilizzarlo. Eppure, è bastato qualche giorno per incrinare l’entusiasmo scatenato dalla nuova intelligenza artificiale: sembrerebbe che DeepSeek censuri domande e argomenti considerati sensibili nella Repubblica Popolare Cinese, come gli avvenimenti di piazza Tienanmen del 1989 (così come avviene se si usano le stesse parole sui motori di ricerca cinesi). Sembra che la risposta del chatbot alla domanda sulla repressione avvenuta nella famosa piazza sia “Mi dispiace, questo va oltre le mie possibilità. Parliamo di qualcos’altro”.
Sebbene il tema abbia acceso gli animi e le polemiche, la limitazione delle risposte nelle intelligenze artificiali non è una novità, nemmeno per i modelli sviluppati in Occidente. E non si tratta sempre di censura vera e propria: ad esempio, Google ha limitato il suo chatbot Gemini da rispondere a domande riguardanti le elezioni in tutti i paesi in cui si vota quest’anno. Ad oggi, se si prova a domandare a Gemini qualcosa inerente la politica, si riceve questa risposta: “Al momento non posso rispondere a domande su elezioni e personaggi politici. Sono progettato per fornire informazioni nel modo più accurato possibile, ma a volte posso commettere errori”. Il motivo sarebbe un “eccesso di cautela su un argomento così importante”, ha spiegato il team di Google. È probabile che l’azienda si sia resa conto della facilità con cui i chatbot possono essere utilizzati per creare campagne di disinformazione.
Ma c’è anche un’altra questione in gioco quando si pongono alle intelligenze artificiali domande su questioni spinose: diversi strumenti danno una serie di risposte molto simili, il che suggerisce che i giganti tecnologici stiano copiando le risposte degli altri per evitare di attirare l'attenzione. In questo modo però, secondo Quartz, il settore tecnologico “sta costruendo silenziosamente una norma industriale di risposte asettiche che filtrano le informazioni offerte agli utenti”.
I bias dell'intelligenza artificiale
Oltre alla censura e alle limitazioni palesi, che si concretizzano nelle mancate risposte dei chatbot, c’è una questione meno visibile – e proprio per questo ancora più importante – che condiziona le risposte rodotte dagli strumenti di intelligenza artificiale: si tratta degli Ai bias, detti anche bias algoritmici. Per quanto le tecnologie possano apparirci come strumenti neutre non lo sono affatto: sono piuttosto strumenti che riflettono le strutture di potere esistenti nelle società in cui sono create.
I chatbot come DeepSeek, ma anche Gemini e ChatGPT, producono dei risultati che rifletto e perpetuano i bias dei loro creatori e della società in cui sono immersi. Lo ammettono le stesse aziende tech: sul sito di OpenAi si legge che “ChatGPT è suscettibile ai bias, poiché è addestrato su dati testuali che possono riflettere pregiudizi umani”. E questi pregiudizi in alcuni casi si trasformano in vere e proprie discriminazioni.
La ricercatrice Lilia Giugni, nel suo libro “La rete non ci salverà”, scrive di come moltissimi software di intelligenza artificiale, “pur essendo, in teoria, estremamente avanzati e “oggettivi”, vanno invece ad alimentare un ciclo di marginalizzazione già in corso”, che riguarda le donne, le persone razzializzate, le persone trans, le persone disabili e in generale le minoranze.
Bias di genere
Non è un segreto che il mondo tech sia a predominanza maschile: secondo le statistiche di WomenInTech, le donne rappresentano il 23% della forza lavoro del settore negli Stati Uniti e il 19,1% in Europa. Di queste, negli Usa, solo l’8-9% ricopre posizioni di leadership. Ed è da sottolineare che nessuna delle ‘Big Five’ – i cinque giganti tecnologici statunitensi, ovvero Alphabet, Apple, Meta, Amazon e Microsoft – ha mai avuto un Ceo donna.
Il risultato di questa situazione? La creazione di prodotti tecnologici con un design male-centered, centrato sull’esperienza maschile e non human-centered, in grado di mettere al centro l’esperienza umana in generale. Nascono così prodotti Gpt-4, avanzamento del modello di OpenAI: un’assistente vocale in grado di “emozionarsi” e in grado di rispondere in modo “emotivo” al proprio interlocutore. Durante la presentazione del nuovo modello, l’assistente, Barret Zoph di OpenA dice: “Stiamo spiegando al pubblico quanto tu sia fantastica”, e la voce risponde imbarazzata “Oh, smettila… Mi stai facendo arrossire!”. E poi, quando le viene comunicato che sta per essere fatto un annuncio che la riguarda, l’intelligenza artificiale dice: “Me? L’annuncio riguarda… me?!”, con un tono decisamente civettuolo.
È chiaro allora che, come spiega il giornalista tech Valerio Bassan in uno dei numeri della sua newsletter Ellissi, i nuovo strumento di OpenAi “risponde una concezione maschile ben precisa: quella che vuole una donna accondiscendente, in grado di esaudire ogni richiesta dell’interlocutore, e che lo fa utilizzando un tono seducente, quasi sessualizzato”. Lo sguardo maschile ha decisamente un peso maggiore nel plasmare le interfacce sia per la scarsità di donne impiegate nel settore che per i ruoli di minore rilevanza che esse ricoprono nella maggior parte dei casi.
Bias razzisti
A fare le spese di questa situazione non sono solo le donne, ma tutte le minoranze che subiscono diverse forme di discriminazioni e il razzismo è sicuramente una forma di discriminazione che ritroviamo nelle elaborazioni delle AI. Ad esempio, è dimostrato che gli algoritmi di riconoscimento facciale soffrono di bias razziali: l’associazione Algorithmic justice league ha dimostrato che la maggior parte degli applicativi di questo genere presentano lo stesso tipo di comportamento, per cui l’accuratezza dipende dal colore della pelle e dal genere. I visi di uomini bianchi vengono riconosciuti più facilmente di quelli di donne e di persone nere.
Ma non è per forza necessario che l’intelligenza artificiale conosca l'aspetto delle persone perché le sue risposte vengano distorte da pregiudizi razzisti: secondo un articolo comparso su Nature nell’agosto del 2024, gli strumenti decisionali basati sull’intelligenza artificiale danno luogo a “decisioni razziste” basate sui modelli linguistici: lo studio dimostra che attraverso l’analisi linguistica, avviene il riconoscimento di persone che parlano un dialetto associato ai discendenti degli afroamericani ridotti in schiavitù negli Stati Uniti. E così le Ai nell'abbinare i posti di lavoro alle persone in base al loro dialetto, assegnano ai parlanti identificati come afroamericani i posti di lavoro meno prestigiosi.
Il tema è considerato così importante che la Relatrice speciale sulle forme contemporanee di razzismo, discriminazione razziale, xenofobia e relativa intolleranza, Ashwini K.P., l’ha portato davanti all’assemblea generale dell’Onu a giugno.
“L'intelligenza artificiale generativa sta cambiando il mondo e ha il potenziale per guidare cambiamenti sociali sempre più sismici in futuro”, si legge nel rapporto. “La rapida diffusione dell'applicazione dell'intelligenza artificiale in vari campi è fonte di profonda preoccupazione per il il Relatore speciale. Questo non perché l'intelligenza artificiale sia priva di potenziali benefici. Anzi, presenta possibili opportunità di innovazione e inclusione”, tuttavia la Relatrice speciale si dice preoccupata “che gli sforzi emergenti per governarla e regolarla non siano sufficientemente attenti alla sua enorme capacità attuale e al suo futuro potenziale di perpetuare e approfondire la discriminazione razziale sistemica, nonché di ampliare le disuguaglianze all'interno e tra regioni, Paesi e comunità”, spiega il documento.
Da dove derivano i bias dell’AI?
I sistemi di intelligenza artificiale prendono le loro decisioni e forniscono le loro risposte basandosi su set di dati di addestramento. Da qui possono derivare alcune problematiche: ad esempio, se i dati di addestramento per un algoritmo di riconoscimento facciale rappresentano in modo eccessivo persone bianche, questo può causare facilmente errori quando si tenta il riconoscimento facciale di persone razionalizzate.
Lilia Giugni spiega che i data set su cui vengono allenati questi software riflettono nella maggior parte dei casi l’invisibilizzazione che le categorie marginalizzate subiscono nella vita quotidiana e di conseguenza, attraverso il machine learning, le cosiddette AI “imparano a perpetuare le loro condizioni di subalternità” e così "forme preesistenti di ingiustizie sociali e di genere vengono intensificate ai giorni nostri da metodologie algoritmiche". Esistono poi i bias algoritmici, che possono essere causati anche da errori di programmazione: uno sviluppatore potrebbe pesare in modo errato i fattori nel processo decisionale dell'algoritmo in base ai propri pregiudizi consci o inconsci.
Le possibili soluzioni
Il dibattito sulla non neutralità dell’Ai sta spingendo organizzazioni nazionali e internazionali a promuovere soluzioni etiche e affidabili. Un approccio inclusivo richiede trasparenza nella raccolta dei dati e diversificazione nei team di sviluppo, che dovrebbero includere persone con diverso background sociale, razziale, culturale: maggiore diversità nelle competenze e nelle esperienze può ridurre i pregiudizi inconsapevoli e contribuire a migliorare il processo decisionale degli algoritmi.
A livello europeo, il Gruppo di esperti di alto livello sull’intelligenza artificiale ha definito quattro principi chiave per cercare di rendere più “human-centered” gli strumenti di intelligenza artificiale: autonomia umana, prevenzione dei danni, equità ed esplicabilità.
Ci sono poi diversi progetti che si pongono l'obiettivo di creare strumenti che contribuiscano a rendere più inclusiva e più “umana” l’intelligenza artificiale, come l'Algorithmic justice league, oppure, all'Università degli Studi di Milano, il progetto Hall, che “si propone di sviluppare buone pratiche tecnologiche per il contrasto delle discriminazioni e la promozione dell’inclusione sociale”.