Les deadbots sont une catégorie de chatbots qui offrent la possibilité de parler à des personnes décédées. Les premiers ont été développés avant l’avènement de ChatGPT et avec le recul ils ne sont pas exempts de risques. Je les analyse dans cet article et avec eux la question de la responsabilité pénale.

Les deadbots sont une nouvelle application de l’intelligence artificielle.
Ce sont des chatbots qui vous permettent de converser avec des personnes décédées en en imitant les réponses. Leur développement s’inscrit dans un contexte plus global de virtualisation des relations et d’effacement des frontières entre le monde physique et le monde digital. Plusieurs exemples récents montrent qu’interagir avec ces intelligences artificielles peut se révéler dangereux et avoir des conséquences terribles. En filigrane se pose donc la question de la responsabilité pénale de l’IA.
Contactez l’institut d’études IntoTheMinds
Joshua Barbeau a parlé avec sa petite amie décédée depuis 8 ans
En août 2021 les San Francisco Chronicles ont publié l’histoire de Joshua Barbeau, un Canadien de 33 ans. Huit ans plus tôt, la jeune femme avec qui il entretenait une relation, Jessica Pereira, est décédée d’une maladie rare.
Errant sur internet, Joshua va tomber par hasard sur « Project December », un chatbot conçu par un programmeur indépendant répondant au nom de Jason Rohrer.
Après avoir ouvert un compte, Joshua Barbeau « alimenta » le chatbot avec des messages qu’il avait conservés de sa petite amie décédée. C’est alors que l’inattendu se produisit. Le chatbot, basé sur la librairie GPT-3 de Google, imitait parfaitement le style de Jessica et produisait des réponses étonnamment … humaines.
La vie après la mort : c’est déjà possible … grâce à l’intelligence artificielle
L’exemple de Joshua Barbeau nous montre que les avancées de l’intelligence artificielle nous réservent quelques surprises quant à leurs applications futures. D’ailleurs, les entreprises n’ont pas attendu pour y voir une manne financière. La difficulté du deuil, la variété des cultes autour de la mort, sont autant d’opportunités de satisfaire une demande qui jusqu’à présent relevait de la science-fiction. En témoigne le récent brevet déposé par Microsoft pour développer un chatbot qui irait jusqu’à imiter la voix de la personne décédée.
Une autre expérience troublante a été réalisée en Corée du Sud en 2020 grâce à la combinaison de la réalité virtuelle et de l’intelligence artificielle (voir vidéo ci-dessus). Jang Ji-Sung a pu retrouver pendant un bref instant sa fille décédée 3 ans plus tôt d’une maladie du sang. La vidéo ci-dessous, qui montre le moment où le virtuel rejoint le réel, est troublante et extrêmement émouvante. Elle montre clairement toutes les interrogations qui peuvent naître de l’utilisation de l’intelligence artificielle pour dépasser les limites de la mort.
L’intelligence artificielle sert également à redonner vie à des photos de famille. Deep Nostalgia est un service proposé par MyHeritage qui permet d’animer des photos de personnes décédées. Là encore, le résultant est bluffant mais peut produire des résultats controversés quand le montre la vidéo ci-dessous.
Les défis éthiques des deadbots
On l’aura compris, faire revenir les morts parmi les vivants pose un certain nombre de problèmes éthiques. La France a été l’un des premiers pays à s’intéresser aux deadbots d’un point de vue législatif. Le comité d’éthique a d’ailleurs rendu en Novembre 2021 un avis consultatif au Premier Ministre. Cet avis comprend un chapitre spécifique pour les deadbots et soulève plusieurs enjeux :
- Consentement du défunt pour l’utilisation de ses données après sa mort
- Risques résultant de l’usurpation de l’identité de la personne (vivante ou décédée)
- Impact psychologique sur celui ou celle qui converse avec la personne décédée
Les progrès de l’intelligence artificielle sont une bénédiction pour de nombreux domaines. Les algorithmes, omniprésents, facilitent notre vie numérique, par exemple en nous recommandant des contenus d’information. Chaque progrès amène toutefois sont lot de déviances comme le montrent ces exemples de hacking.
Avec les deadbots, les informaticiens s’aventurent sur un terrain dangereux. La mort n’est pas un « domaine » comme les autres. L’être est devenu humain lorsqu’il a eu conscience de sa propre mort. C’est cette conscience que les deadbots risquent de troubler, malgré toutes les précautions qui peuvent être prises. En investissant le champ de l’au-delà, cette fois-ci l’intelligence artificielle risque bien de nous faire régresser.
La responsabilité pénale des IA : le cas de Character.ai
Un adolescent s’est suicidé après être devenu accroc à son chatbot basé sur l’IA générative. C’est l’histoire de Character.ai, une application rachetée par Google qui permet de converser avec des personnes réelles, vivantes ou mortes, et des personnages fictifs. Character.ai vous permet par exemple de parler avec Napoléon, Alan Turing, Robert Nixon et bien d’autres. La société fait face à un procès, intenté par la mère de l’adolescent. Cette dernière reproche à l’entreprise d’avoir mis sur le marché un produit qui n’est pas sans risques pour les enfants et de ne pas avoir mis en garde les parents.
Ce cas de figure n’est malheureusement pas le premier. En Juin 2023, un père de famille belge s’était lui aussi suicidé après avoir conversé pendant 6 semaines avec un chatbot nommé Eliza.
Qu’en est-il au final de la responsabilité juridique de l’IA conversationnelle en général, et de ces chatbots qui imitent les humains en particulier. Ils échappent en fait à toute régulation, même en Europe. Le « Digital Services Act » (DSA) couvre la responsabilité des médias sociaux et ces applications n’en font pas partie. L’AI Act quant à lui n’a pas classé ces chatbots dans les systèmes à haut risque. Il n’est donc pas possible de montrer qu’ils enfreignent une réglementation qui les obligerait à contrôler les risques.
Mais la question existentielle qui se pose est la suivante : a-t-on besoin d’une réglementation pour couvrir tous les risques ? A quel moment commence-t-on à infantiliser l’utilisateur ? Notre société a développé une tendance à surprotéger ses citoyens de tous les risques, au risque d’empêcher toute initiative individuelle et de contraindre l’innovation. Faut-il empêcher une personne de se pencher au-dessus d’un balcon car il existe un risque qu’elle tombe ? A quel moment retire-t-on le libre arbitre à un utilisateur et oblige-t-on le fabricant d’un système à l’en protéger contre son gré ?
Le risque zéro n’existe pas et il n’existera jamais. Il faut donc trouver un compromis qui permette aux entrepreneurs et créateurs de systèmes informatiques :
- D’innover de manière responsable et dans les limites de l’éthique
- De ne pas craindre de représailles juridiques lorsqu’un utilisateur détourne le système contre lui-même