Main Partner

main partnermain partnermain partner

Partner

main partner

È nato il primo avatar made in Italy che parla la Lis grazie all'intelligenza artificiale

La Lingua dei segni approda nella rivoluzione tecnologica grazie a un assistente virtuale utile a promuovere una reale accessibilità per tutti i cittadini

di BARBARA BERTI -
19 gennaio 2023
Un momento della presentazione ufficiale del primo virtual human in Italia capace di produrre e comprendere la Lis

Un momento della presentazione ufficiale del primo virtual human in Italia capace di produrre e comprendere la Lis

È nato il primo avatar che parla la Lis, la Lingua dei segni, un “assistente virtuale empatico e avveniristico”. La Lingua dei Segni Italiana, riconosciuta ufficialmente dallo Stato italiano il 19 maggio 2021, adesso aggiornare la propria storia con una nuova data: il 17 gennaio 2023, giorno in cui la stessa Lis abbraccia ufficialmente la contemporanea rivoluzione tecnologica grazie al lancio del primo ‘virtual human’ in Italia capace di produrre e comprendere i segni della lingua che, al giorno d’oggi, è conosciuta da circa 100mila persone su scala nazionale.
Un momento della presentazione ufficiale del primo virtual human in Italia capace di produrre e comprendere la Lis

Un momento della presentazione ufficiale del primo virtual human in Italia capace di produrre e comprendere la Lis

Com’è possibile? Grazie all’intelligenza artificiale che rende l’innovazione estremamente empatica. Nella presentazione ufficiale, a Milano, è stato mostrato sullo schermo di un device digitale un uomo che porta il pugno davanti alla bocca, poi incrocia le mani con due dita alzate. È il suo saluto: “Buongiorno”. Risponde una donna, abito nero, orecchini, capelli raccolti in una coda. “Serve qualcosa?” dice con i gesti delle sue mani. La conversazione è tutta in Lis, la lingua dei segni e uno dei due protagonisti del dialogo silenzioso – la donna - non è un umano in carne e ossa, ma un'umana virtuale (di nome Algho), la prima Made in Italy capace di produrre e di comprendere la Lingua italiana dei segni. [video width="1280" height="720" mp4="https://luce.lanazione.it/wp-content/uploads/2023/01/virtual-human-lis_krDgm5PZ.mp4"][/video] Dietro alla realizzazione di questo assistente virtuale avveniristico – e capace di abbattere le barriere - c’è “QuestIT”, company nata come spin-off dell’Università di Siena, che per l’occasione ha stretto una partnership strategica con il Santa Chiara Fab Lab dell’Ateneo toscano e con il Consiglio Nazionale delle Ricerche. “Per innovare il presente serve tanta ricerca e, soprattutto, la tecnologia giusta – afferma Ernesto Di Iorio, CEO di QuestIT –. Per questo motivo abbiamo sfruttato le incredibili potenzialità dell’intelligenza artificiale per strutturare un avatar di ultima generazione che conosce alla perfezione la Lingua dei segni italiana. Grazie a esso, potenziamo la ‘digital accessibility’ e diamo l’opportunità ai cittadini sordi di accedere autonomamente a informazioni e servizi offerti da enti e realtà del territorio come la Pubblica amministrazione e le banche, ma i potenziali campi d’applicazione sono innumerevoli: dall’organizzazione degli appuntamenti negli ospedali alla spiegazione di mostre o eventi culturali nei musei fino al chiarimento di materie o singoli concetti nelle scuole o nelle aule universitarie”. Il primo virtual human in Italia capace di produrre e comprendere i segni della lingua Attualmente, fanno sapere gli esperti, la tecnologia, in qualità di virtual assistant, può essere inserita all'interno di siti web, applicazioni, sistemi proprietari e persino totem interattivi. Una volta che la persona si presenta davanti allo schermo e inizia a interagire ‘a suon’ di segni, l’avatar analizza le espressioni facciali del singolo, oltre ai suoi movimenti, e risponde utilizzando la Lis. In questo modo è in grado di offrire consulenze mirate, a seconda del contesto di riferimento, ai clienti sordi. Il percorso di Algho non si ferma e sono previste a stretto giro una serie di lavorazioni utili a perfezionare lo stesso umanoide. “Stiamo già lavorando su quello che può essere l'evoluzione del prodotto - aggiunge Di Iorio -. L’obiettivo è offrire una tecnologia capace di tradurre simultaneamente le parole in segni. Già oggi, dopo una prima fase di training, è in grado di gestire le richieste della clientela in totale autonomia e offrire così l'assistenza di cui le persone necessitano”. Una volta ultimate le presentazioni, QuestIT, in compagnia di IgoodI, avatar factory italiana, ha premiato anche il vincitore dell'Avacontest, Sarah Balestrieri. La giovane, insieme ad altri cittadini provenienti da tutta Italia, ha preso parte all'iniziativa che ha visto i singoli partecipanti tramutarsi in avatar e, oltre a vincere 2.500 euro, diventerà anche testimonial di imprese ed enti pubblici del territorio sotto forma di assistente virtuale.