Claudia Segre: “Dobbiamo filtrare tra fake news e notizie vere anche nell’IA”

La presidente di Global Thinking Foundation, non ha dubbi: “L’Intelligenza artificiale non potrà mai sostituire completamente le capacità umane, ma dà già nuovi strumenti per formarsi”

di MARIANNA GRAZI
5 ottobre 2024
CLAUDIA SEGRE, GLOBAL THINKING FOUNDATION W7

CLAUDIA SEGRE, GLOBAL THINKING FOUNDATION W7

FIRENZE – “Prima andavo in biblioteca e cercavo i libri che mi servivano, magari l’Enciclopedia Treccani o la Britannica. Adesso si tratta di mettere lo stesso impegno in una ricerca mirata che non è più cartacea ma digitale”. Claudia Segre, presidente di Global Thinking Foundation e membro del Comitato scientifico di Luce! spazza via i dubbi sul rischio che ChatGPT, Gemini e chi per loro sostituiscano in toto i vecchi metodi di studio, che tolgano ai giovani la voglia e la capacità di formarsi.

Il tema sarà anche al centro del quarto Festival di Luce! (qui il link per iscrivervi), sabato 19 ottobre nel Salone dei Cinquecento di Palazzo Vecchio, quando gli ospiti, provenienti da vari settori del sociale, discuteranno anche con gli studenti della scuole toscane delle nuove sfide lanciate dall’Intelligenza.

Le macchine sostituiranno la capacità critica e la conoscenza umana?

“Penso che l’impossibilità di ricreare in intelligenza artificiale la creatività umana sia già di per sé una risposta al fatto che non potrà sostituirla. Guardiamo le imprese: tutto l’impianto di adeguamento, di sostenibilità, di standard, di elaborazione di questionari, non è possibile farlo senza l’intelligenza artificiale. Ma l’interpretazione di questi dati si ottiene solo grazie alle persone che hanno competenze, che grazie alla loro capacità interpretativa del sociale riescono a portare quel contributo necessario al processo di analisi. Questo nell’ambito tecnico finanziario ma la stessa cosa avviene anche in altri ambiti”.

Le applicazioni dell’IA possono essere uno strumento per rendere possibile l’impossibile?

“Sicuramente è un fattore abilitante, perché facilitatore di una serie di necessità a cui pervengono le persone che hanno bisogno di formarsi ma non hanno, ad esempio, la capacità di raggiunger l’aula scolastica o sufficienti risorse per partecipare a corsi specialistici universitari. Noi lo portiamo avanti con “Libere di Vivere” parlando di disabilità: il venire incontro a tutte quelle difficoltà più o meno grandi, che siano fisiche, cognitive o semplicemente logistiche, vuol dire implementare l’aspetto dell’educazione e dell’acquisizione di competenza a tutti i livelli a cui l’intelligenza artificiale viene incontro”.

Un cambiamento ormai inarrestabile è progresso?

“Sicuramente. E quindi dobbiamo entrare nell’ottica del: cosa può darmi l’IA per migliorarmi, per farmi sentire incluso lavorativamente e socialmente? Poi però ci devo mettere del mio. Prima se dovevo preparare uno speech dovevo leggermi tanti documenti, era un processo farraginoso. Ora se li seleziono, li do all’intelligenza artificiale e utilizzo correttamente i filtri posso pensare di avere un aiuto ma poi ci devo mettere la mia esperienza, le cose che ho registrato sul campo”.

Perché l’algoritmo è calibrato comunque sull’input umano, no?

“E il rischio è che si mettano dentro, come accade da anni ormai, delle fake. Delle informazioni opportunisticamente votate a guidare un certo tipo di esito nella ricerca. La peculiarità del nostro lavoro è quella di dare i filtri alle persone per distinguere tra fake news e news reali anche nell’Intelligenza artificiale”.