I deadbot sono una categoria di chatbot che offrono la possibilità di parlare con persone morte. I primi sono stati sviluppati prima dell’avvento della ChatGPT e, col senno di poi, non sono privi di rischi. In questo articolo li analizzo ed esamino la questione della responsabilità penale.
I deadbot sono una nuova applicazione dell’intelligenza artificiale. Personalmente, mi spaventa. I deadbot sono chatbot che consentono di conversare con persone morte imitando le loro risposte. Il loro sviluppo fa parte di un contesto più globale di virtualizzazione delle relazioni e sfocatura dei confini tra il mondo fisico e quello digitale.
Contatta l’agenzia di ricerche di mercato IntoTheMinds
Joshua Barbeau ha parlato con la sua ragazza, morta 8 anni fa
Nell’agosto 2021, il San Francisco Chronicles ha pubblicato la storia di Joshua Barbeau, un canadese di 33 anni. Otto anni prima, la giovane donna con cui aveva una relazione, Jessica Pereira, è morta di una malattia rara.
Girovagando su Internet, Joshua si imbatte in “Project December”, un chatbot progettato da un programmatore indipendente di nome Jason Rohrer.
Poi qualcosa è cambiato. Dopo aver aperto un account, Joshua Barbeau ha “nutrito” il chatbot con i messaggi che aveva salvato dalla sua fidanzata defunta. Basato sulla libreria GPT-3 di Google, il chatbot ha imitato perfettamente lo stile di Jessica e ha prodotto sorprendentemente… risposte umane.
La vita dopo la morte: è già possibile… grazie all’intelligenza artificiale
L’esempio di Joshua Barbeau ci mostra che i progressi nell’intelligenza artificiale riservano alcune sorprese per le applicazioni future. La difficoltà del lutto e la varietà dei culti intorno alla morte rappresentano tante opportunità per soddisfare una richiesta che fino ad ora era fantascienza. Inoltre, le aziende non hanno aspettato di vedere una manna finanziaria. Il recente brevetto depositato da Microsoft per sviluppare un chatbot che arrivasse a imitare la voce del defunto ne è un esempio.
Un altro esperimento inquietante è stato realizzato in Corea del Sud nel 2020 utilizzando la combinazione di realtà virtuale e intelligenza artificiale (vedere video sopra). Jang Ji-Sung si è riunito per un breve momento con sua figlia, morta 3 anni prima per una malattia del sangue. Il video qui sotto, che mostra quando il virtuale incontra il reale, è inquietante e molto commovente. Mostra chiaramente tutte le domande che possono sorgere dall’intelligenza artificiale per superare i limiti della morte.
L’intelligenza artificiale viene utilizzata anche per riportare in vita le foto di famiglia. Nostalgia Profonda è un servizio proposto da MyHeritage che permette di animare foto di persone decedute. Il risultato è impressionante ma può produrre risultati controversi, come mostrato nel video qui sotto.
Le sfide etiche dei deadbot
Come si può vedere, riportare in vita i morti pone diversi problemi etici. La Francia è stato uno dei primi paesi a interessarsi ai deadbot da un punto di vista legislativo. Nel novembre 2021, il comitato etico ha emesso un parere consultivo al primo ministro. Questo parere include un capitolo specifico per i deadbot e solleva diverse questioni:
- Consenso del defunto per l’utilizzo dei suoi dati dopo la sua morte
- Rischi derivanti dall’usurpazione dell’identità della persona (vivente o deceduta)
- Impatto psicologico sulla persona che dialoga con il defunto
Il progresso dell’intelligenza artificiale è una benedizione per molti campi. Gli algoritmi sono onnipresenti e semplificano la nostra vita digitale, ad esempio consigliandoci contenuti informativi. Tuttavia, ogni progresso porta la sua parte di devianze, come mostrato da questi esempi di hacking.
Con i deadbot, gli informatici si stanno avventurando in un territorio pericoloso. La morte non è un “dominio” come gli altri. L’essere umano si è fatto umano quando ha preso coscienza della sua morte. È questa coscienza che i deadbot rischiano di disturbare, nonostante tutte le precauzioni che possiamo prendere, investendo il campo dell’aldilà, questa volta l’intelligenza artificiale rischia di farci regredire.
La responsabilità penale dell’IA: il caso di Character.ai
Un adolescente si è suicidato dopo essere diventato dipendente dal suo chatbot basato sull’intelligenza artificiale generativa. Questa è la storia di Character.ai, un’applicazione acquistata da Google che consente di conversare con persone reali, vive o morte, e con personaggi di fantasia. Character.ai permette di parlare con Napoleone, Alan Turing e Robert Nixon. L’azienda sta affrontando una causa intentata dalla madre dell’adolescente. La donna accusa l’azienda di aver commercializzato un prodotto non privo di rischi per i bambini e di non aver avvertito i genitori.
Purtroppo, questo caso non è il primo del genere. Nel giugno 2023, anche un padre belga si è suicidato dopo aver conversato per 6 settimane con un chatbot di nome Eliza.
Che ne è della responsabilità legale dell’IA conversazionale in generale e di questi chatbot che imitano gli esseri umani in particolare? Sfuggono a qualsiasi regolamentazione, anche in Europa. Il Digital Services Act (DSA) copre la responsabilità dei social media e queste applicazioni non ne fanno parte. Quanto all’AI Act, non classifica i chatbot come sistemi ad alto rischio. Pertanto, è impossibile dimostrare che essi violano le norme che impongono il controllo del rischio.
Ma la domanda esistenziale è: abbiamo bisogno di una regolamentazione per coprire tutti i rischi? A che punto cominciamo a infantilizzare l’utente? La nostra società ha sviluppato la tendenza a proteggere eccessivamente i cittadini da tutti i rischi, con il rischio di impedire l’iniziativa individuale e di limitare l’innovazione. Si dovrebbe impedire a una persona di sporgersi da un balcone a causa del rischio di caduta? A che punto togliamo il libero arbitrio all’utente e obblighiamo il produttore del sistema a proteggerlo contro la sua volontà?
Il rischio zero non esiste e non esisterà mai. Dobbiamo quindi trovare un compromesso che consenta agli imprenditori e ai creatori di sistemi informatici:
- innovare in modo responsabile ed etico
- di non temere rappresaglie legali quando un utente dirotta il sistema contro se stesso