Quando parliamo di Intelligenza Artificiale pensiamo alle opportunità che offre, al fatto che è già presente nella nostra quotidianità. Però spesso ci si dimentica che non è un tubo unidirezionale in cui inseriamo informazioni e ne escono delle altre. In realtà l’IA è a due direzioni: ogni volta che noi immettiamo qualcosa la stiamo nutrendo e tutto ciò che esce dipende fortemente da quello che noi abbiamo inserito.
Quindi primo punto di attenzione: cosa immettiamo e chi immette dal punto di vista della diversificazione. E prima ancora dobbiamo chiederci com’è stato progettato il modo in cui l’intelligenza artificiale elabora le informazioni e ce le restituirce. Dentro gli algoritmi di base, nel modo in cui noi abbiamo iniziato a impostarli, ci possono essere bias, i ’codici’ di cui noi siamo portatori e portatrici, i nostri nostri errori. L’IA impara e la notizia bella è che potremmo, teoricamente, anche avvisare, informare dei nostri bias e dell’attenzione che deve porre, quindi riequilibrare. La vera domanda allora è: se l’IA è prodotta da noi, se è progettata da noi, quanto riesce a essere razionale? Perché se riuscissimo davvero a renderla debiased, a toglierle i pregiudizi, ad avvisarla che nella società c’è una preferenza per il maschile, per l’uomo bianco, per le persone etero invece che gay, lesbiche o trans, costruiremmo un’equità vera.
E come si fa? Partendo da una diversificazione. Facciamo immettere informazione da tutte le persone, diversificate, in maniera che, oltre a dargli le chiavi per evitare diseguaglianze, proviamo ad agire anche sulla mole di informazioni, in modo che si nutra più equamente. Con Fondazione Diversity stiamo lanciando una piattaforma dedicata a tutti i gruppi sotto rappresentati, in modo che gli individui possano inserire i loro dati, essere scelti in maniera totalmente accessibile da tutta l’industria dei media. Si chiama Diversifind ed è una delle soluzioni, per cercare di fare in modo che si diversifichi il mondo del lavoro ma soprattutto si crei inclusione.