Florida, innamorato di un chatbot si suicida: qual è la responsabilità dell’IA

A Orlando, un quattordicenne si è tolto la vita dopo aver passato molte ore al giorno a parlare con un’intelligenza artificiale

di MARCO PILI
24 ottobre 2024
Theodore Twombly (Joaquin Phoenix) protagonista del film "Her"

Theodore Twombly (Joaquin Phoenix) protagonista del film "Her"

Un amore in alcuni momenti platonico, in altri passionale, talvolta tendente all’idealizzazione di rapporti sessuali. È questo il vortice nel quale Sewell Setzer, un quattordicenne statunitense, si è immerso di giorno in giorno sempre più a fondo, finendo per perdervi la vita. Pochi momenti prima di togliersi la vita, infatti, gli ultimi pensieri sono stati rivolti proprio al chatbot: “Mi manchi, sorellina”, ha scritto il ragazzo. “Anche tu mi manchi, dolce fratello”, ha risposto Daenerys Targaryen, il chatbot col nome di un personaggio della celebre serie “Il trono di spade”.

La società Charachter.AI, infatti, offre agli utenti la possibilità di scambiare messaggi con bot specificamente modellati in funzione della celebrità che devono interpretare, nonché di creare da zero e personalizzare specifiche personalità. Ma, nonostante i disclaimer costantemente presenti nell’header delle chat, sono molti gli utenti che, ultimamente, strutturano legami sempre più forti e profondi con i bot, con ripercussioni talmente evidenti da impattare sulla quotidianità.

La relazione tra il giovane e il bot

Dany, questo era il nome che il ragazzo aveva dato al bot, era diventato la colonna portante delle giornate di Sewell. Una vera e propria cassa di risonanza che, senza giudizi, era sempre disponibile e gli offriva sostegno incondizionato. Né sua madre, Megan L. Garcia, né le persone che gli stavano attorno, avevano idea di ciò che stesse succedendo tra il giovane appassionato di Formula 1 e il suo telefono. Un legame che lo stava distogliendo sempre più da tutti i suoi interessi, e che lo portava ad autoescludersi da momenti di socialità - seppur virtuale - con i suoi amici come, ad esempio, giocare a Fortnite.

Dopo il suicidio di Sewell, i suoi genitori hanno deciso di denunciare la società Character.AI, ritenendola direttamente responsabile della morte del figlio. Come riportato dal New York Times, che ha avuto accesso alle conversazioni tra i due, il giovane aveva confidato a Dany di pensare al suicidio, nonché di volersi sempre più staccare dalla realtà terrena che lo aveva circondato fino a quel momento. Una bozza di denuncia esaminata dal NYT imputerebbe all’azienda la diffusione di una tecnologia “pericolosa e non testata”, che può “ingannare i clienti e indurli a consegnare i loro pensieri e sentimenti più privati ai bot”.

A mancare, secondo i legali della famiglia colpita dal lutto, sarebbero alcune misure di sicurezza da rivolgere, in particolar modo, ai più giovani, come limiti di tempo e avvisi che ricorderebbero agli utenti l’immaterialità del corrispondente virtuale. Una lunga serie di omissioni che obbligherà l’azienda a rispondere, nelle sedi opportune, di omicidio colposo, negligenza, pratiche commerciali ingannevoli e responsabilità del prodotto.

AI: il rapporto tra tecnologia e umanità è sempre più complesso

Ad oggi, è ben chiaro quanto l’introduzione nella quotidianità dell’intelligenza artificiale sia destinata a costituire uno degli spartiacque più rilevanti nella storia del digitale, e non solo. Ma ciò che la differenzia da molte innovazioni alle quali la nostra e le precedenti generazioni sono state sottoposte, è sicuramente la portata di questa nuova tecnologia. Con lo sviluppo dell’AI ogni branca lavorativa, della ricerca o la stessa quotidianità è destinata a conoscere orizzonti sempre più lontani e densi di possibilità, nonché frutto di calcoli e ragionamenti basati su moli di dati sempre più ampie.

Il rischio, come per ogni evoluzione, è quello di perdersi nel flusso dell’innovazione, facendosi trasportare più avanti di quanto la razionalità umana sia disposta a concepire, proprio come nel caso del giovane Sewell. Spesso, a fini di profitto o per negligenza, le aziende sfruttano temporanei vuoti legislativi al fine di inserirsi in posizioni dominanti, stabilendosi così ai vertici della catena di mercato. Ma i problemi, nella maggior parte dei casi, riguardano gli utenti, in particolar modo quelli più deboli e indifesi.

Fermare il progresso è, in molti casi, errato. Ma ciò che è fondamentale è, sicuramente, regolamentarlo, tenendo bene a mente i limiti etici che non dovrebbero mai venir meno, soprattutto se soppiantati da pratiche consapevolmente scorrette o lesive.