La nuova funzione di
Alexa ha già acceso un
grande dibattito sul web e probabilmente le discussioni non si spegneranno in breve tempo. Nel corso della
conferenza annuale Re:Mars 2022, il vicepresidente senior della
divisione Amazon che si occupa dell’assistente digitale,
Rohit Prasad, ha annunciato che sarà possibile
imitare le voci dei cari defunti.
Alexa potrà imitare la voce dei cari defunti
Può la tecnologia cercare di tenere in vita chi non c'è più? La questione etica da affrontare
Per la dimostrazione di questa nuova funzione, il vice presidente senior del team dietro all'assistente vocale di Amazon, Rohit Prasad, ha scelto di riprodurre un video in cui Alexa legge una
favola della buona notte a un
bambino imitando la
voce della nonna.
La nonna morta poco tempo prima riporta così alla ribalta l'annosa
questione etica su fin dove la
tecnologia possa spingersi per cercare di tenere in qualche modo in vita chi non c'è più. Alla nuova abilità di Alexa basta
circa un minuto di ascolto di una determinata voce per poi saperla riprodurre e pronunciare praticamente qualsiasi espressione possa essere elaborata dal
vocal assistant. Imitare le voci è certamente la nuova frontiera di questo tipo di strumenti, che ha conquistato subito le prime pagine, grazie anche a un tale miglioramento della tecnologia che permette ora di ottenere risultati ambiziosi in un arco di tempo molto più breve. Il nuovo sistema riesce infatti a riprodurre i toni più disparati e i timbri di voce più diversi calibrando il proprio output in modo molto preciso. "
Viviamo in un'epoca d'oro dell'intelligenza artificiale - ha commentato Prasad - e se l'i.a. non può eliminare il dolore di una perdita, può di sicuro far sì che le memorie rimangano. Tantissimi, anche durante la pandemia, hanno perso le persone che amavano. Con questa funzione permettiamo loro di riascoltare la voce dei familiari e degli amici scomparsi " e non si può non essere d'accordo con il dirigente, anche se ci sono
due aspetti imprescindibili da sottolineare.
Rohit Prasad, l'assistente vocale di Amazon
La diffusione di fake news: un pericolo da evitare
La potenzialità tecnologica è innegabile, ma il nuovo strumento pone non poche riflessioni di
carattere etico, già ampiamente dibattute sulle piattaforme social dagli utenti più preoccupati L'imitazione di qualsiasi voce
è una sorta di deepfake a livello audio, una nuova pericolosissima opportunità per diffondere
fake news sempre più difficili da riconoscere e una nuova rappresentazione del timbro di una persona che potrebbe
non aver mai acconsentito a questa procedura. E questo vale per chi è ancora in vita, che potrebbe subire la
clonazione della voce pescando da qualsiasi breve filmato o file audio, ma anche appunto chi non c'è più. Così come nel caso del celebre
abbraccio virtuale tra una madre e una figlia morta. La rappresentazione dello scomparso potrebbe causare gravi problemi, in modo particolare nel processo di elaborazione del lutto. Un altro problema potrebbe essere l'accelerazione
delle già esistenti truffe che utilizzano la tecnologia di imitazione vocale per scopi illeciti come nel caso dell'anno scorso di un trasferimento di oltre
30 milioni di euro da una banca degli Emirati Arabi a un criminale tech che aveva impersonato un dirigente. Non a caso Microsoft, prima che Amazon presentasse l’ultima novità, aveva pubblicato
nuove regole etiche per l’utilizzo e lo sviluppo dell’Intelligenza Artificiale (non solo quindi in ambiti specifici come quello sanitario), un quadro normativo che potrebbe in futuro porre non pochi limiti allo sviluppo delle voci 'sintetiche'. Il quotidiano britannico The Guardian aveva riportato invece come diversi esperimenti vennero fatti in passato con una chatbot capace di sostenere una conversazione come fosse una persona morta qualche anno prima. Nel 2020 nel caso di Joshua Barbeau si trattava della sua ragazza Jessica, scomparsa otto anni prima, un esperimento che già all’epoca fu di grande impatto.