Main Partner

main partnermain partnermain partner

Partner

main partner

Alexa, la nuova funzione choc: potrà imitare la voce dei cari defunti. Sui social parte la protesta: "Non è etico"

di EDOARDO MARTINI -
24 giugno 2022
Alexa

Alexa

La nuova funzione di Alexa ha già acceso un grande dibattito sul web e probabilmente le discussioni non si spegneranno in breve tempo. Nel corso della conferenza annuale Re:Mars 2022, il vicepresidente senior della divisione Amazon che si occupa dell’assistente digitale, Rohit Prasad, ha annunciato che sarà possibile imitare le voci dei cari defunti.

Alexa potrà imitare la voce dei cari defunti

Può la tecnologia cercare di tenere in vita chi non c'è più? La questione etica da affrontare

Per la dimostrazione di questa nuova funzione, il vice presidente senior del team dietro all'assistente vocale di Amazon, Rohit Prasad, ha scelto di riprodurre un video in cui Alexa legge una favola della buona notte a un bambino imitando la voce della nonnaLa nonna morta poco tempo prima riporta così alla ribalta l'annosa questione etica su fin dove la tecnologia possa spingersi per cercare di tenere in qualche modo in vita chi non c'è più. Alla nuova abilità di Alexa basta circa un minuto di ascolto di una determinata voce per poi saperla riprodurre e pronunciare praticamente qualsiasi espressione possa essere elaborata dal vocal assistant. Imitare le voci è certamente la nuova frontiera di questo tipo di strumenti, che ha conquistato subito le prime pagine, grazie anche a un tale miglioramento della tecnologia che permette ora di ottenere risultati ambiziosi in un arco di tempo molto più breve. Il nuovo sistema riesce infatti a riprodurre i toni più disparati e i timbri di voce più diversi calibrando il proprio output in modo molto preciso. "Viviamo in un'epoca d'oro dell'intelligenza artificiale - ha commentato Prasad - e se l'i.a. non può eliminare il dolore di una perdita, può di sicuro far sì che le memorie rimangano. Tantissimi, anche durante la pandemia, hanno perso le persone che amavano. Con questa funzione permettiamo loro di riascoltare la voce dei familiari e degli amici scomparsi " e non si può non essere d'accordo con il dirigente, anche se ci sono due aspetti imprescindibili da sottolineare. 

Rohit Prasad, l'assistente vocale di Amazon

La diffusione di fake news: un pericolo da evitare

La potenzialità tecnologica è innegabile, ma il nuovo strumento pone non poche riflessioni di carattere etico, già ampiamente dibattute sulle piattaforme social dagli utenti più preoccupati L'imitazione di qualsiasi voce è una sorta di deepfake a livello audio, una nuova pericolosissima opportunità per diffondere fake news sempre più difficili da riconoscere e una nuova rappresentazione del timbro di una persona che potrebbe non aver mai acconsentito a questa procedura. E questo vale per chi è ancora in vita, che potrebbe subire la clonazione della voce pescando da qualsiasi breve filmato o file audio, ma anche appunto chi non c'è più. Così come nel caso del celebre abbraccio virtuale tra una madre e una figlia morta. La rappresentazione dello scomparso potrebbe causare gravi problemi, in modo particolare nel processo di elaborazione del lutto. Un altro problema potrebbe essere l'accelerazione delle già esistenti truffe che utilizzano la tecnologia di imitazione vocale per scopi illeciti come nel caso dell'anno scorso di un trasferimento di oltre 30 milioni di euro da una banca degli Emirati Arabi a un criminale tech che aveva impersonato un dirigente. Non a caso Microsoft, prima che Amazon presentasse l’ultima novità, aveva pubblicato nuove regole etiche per l’utilizzo e lo sviluppo dell’Intelligenza Artificiale (non solo quindi in ambiti specifici come quello sanitario), un quadro normativo che potrebbe in futuro porre non pochi limiti allo sviluppo delle voci 'sintetiche'. Il quotidiano britannico The Guardian aveva riportato invece come diversi esperimenti vennero fatti in passato con una chatbot capace di sostenere una conversazione come fosse una persona morta qualche anno prima. Nel 2020 nel caso di Joshua Barbeau si trattava della sua ragazza Jessica, scomparsa otto anni prima, un esperimento che già all’epoca fu di grande impatto.