Los deadbots son una categoría de chatbots que ofrece la posibilidad de hablar con los fallecidos. Los primeros se desarrollaron antes de la llegada de ChatGPT, y en perspectiva, no quedan libres de peligro. En este artículo los analizo y examino la responsabilidad penal a su alrededor.
Los deadbots son una nueva aplicación de la inteligencia artificial, chatbots que te permiten conversar con los fallecidos imitiando sus respuestas. Su desarrollo forma parte de un contexto más global en el que se virtualizan las relaciones y que difumina las barreras entre el mundo físico y el digital. Varios ejemplos recientes muestran que interactuar con estas inteligencias artificiales puede resultar peligroso y tener unas consecuencias terribles, lo que presenta la cuestión de la responsabilidad penal de las IA.
Contacta con la agencia de investigación de mercado IntoTheMinds
Joshua Barbeau habló con su novia muerta desde hacía 8 años
En agosto de 2021, el San Francisco Chronicles publicó la historia de Joshua Barbeau, un canadiense de 33 años. Ocho años antes, la joven con la que mantenía una relación, Jessica Pereira, murió de una rara enfermedad.
Navegando por Internet, Joshua se encontró el «Project December», un chatbot diseñado por un programador independiente llamado Jason Rohrer.
Y entonces pasó lo inesperado. Tras abrir una cuenta, Joshua Barbeau «alimentó» el chatbot con mensajes que había guardado de su novia fallecida. Basándose en la biblioteca GPT-3 de Google, el chatbot imitó el estilo de Jessica a la perfección y produjo unas respuestas sorprendentemente… humanas.
Vida tras la muerte: ya es posible… gracias a la inteligencia artificial
El ejemplo de Joshua Barbeau nos muestra que los avances de la inteligencia artificial contienen algunas sorpresas en cuanto a aplicaciones futuras. La dificultad del duelo y la variedad de cultos alrededor de la muerte suponen muchas oportunidades para satisfacer una petición que, hasta ahora, no era más que ciencia ficción. Y lo que es más, las empresas no han esperado a ver una ganancia económica. La reciente patente solicitada por Microsoft para desarrollar un chatbot que iría hasta el extremo de imitar la voz de la persona fallecida es un ejemplo de ello.
Otro experimento perturbador se llevó a cabo en Corea del Sur en 2020 usando la combinación de la realidad virtual y la inteligencia artificial (ver vídeo más arriba). Jang Ji-Sung se reunió durante un breve instante con su hija, que había muerto 3 años antes por una enfermedad sanguínea. El vídeo que hay a continuación y que muestra qué ocurre cuando lo virtual se encuentra con lo real es tan perturbador como profundamente emotivo, y deja ver claramente todas las preguntas que pueden surgir si la inteligencia artificial supera los límites de la muerte.
La inteligencia artificial también se usa para devolver a la vida las fotografías familiares. Deep Nostalgia es un servicio propuesto por MyHeritage que permite reanimar las fotografías de gente ya fallecida. El resultado es impresionante, pero puede producir resultados controvertidos, como se ve en el siguiente vídeo.
Los retos éticos de los deadbots
Tal y como ves, traer a los muertos de nuevo a la vida supone varios problemas éticos. Francia fue uno de los primeros países en interesarse en los deadbots desde un punto de vista legislativo, y en noviembre de 2021 el comité ético emitió un dictamen consultivo para el Primer Ministro. Este dictamen incluye un capítulo específico para los deadbots y plantea varias cuestiones:
- Consentimiento por parte de los fallecidos para el uso de sus datos tras su muerte.
- El riesgo resultante de la usurpación de la identidad de la persona (vivos y muertos).
- El impacto psicológico sobre la persona que habla con el fallecido.
El progreso de la inteligencia artificial es una bendición en muchos campos. Los algoritmos son omnipresentes y simplifican nuestra vida digital al, por ejemplo, recomendarnos contenido informativo. Pero cada progreso trae consigo sus desviaciones, tal y como se ve en estos ejemplos de hackeo.
Con los deadbots, los ingenieros informáticos se aventuran en terreno peligroso. La muerte no es un «dominio» como los demás; los seres humanos nos convertimos en humanos cuando nos hicimos conscientes de la muerte, y es precisamente esa consciencia la que los deadbots amenazan con afectar. A pesar de todas las precauciones que podamos tomar al investigar este campo de la vida en el más allá, en esta ocasión la inteligencia artificial amenaza con hacernos retroceder.
La responsabilidad penal de la IA: el caso de Character.ai
Un adolescente se suicidó tras volverse adicto a su chatbot basado en IA generativa. Se trata de la historia de Character.ai, una aplicación comprada por Googel que te permite conversar con gente real, viva o muerta, y con personajes ficticios. Character.ai te ofrece la oportunidad de hablar con Napoleón, Alan Turing, y Robert Nixon. La empresa se enfrenta ahora a una demanda presentada por la madre del adolescente, quien acusa a la empresa de haber promocionado un producto a niños cuando este no está carente de riesgos y sin advertir a los padres.
Por desgracia, no es el primer caso de este tipo. En junio de 2023, un padre belga también cometió suicido tras conversar durante 6 semanas con un chatbot llamado Eliza.
¿Qué ocurre entonces con la responsabilidad penal de las IA conversacionales en general, y de estos chatbots que imitan a humanos en concreto? Todos se escapan de la legislación actual, incluso en Europa. La Ley de Servicios Digitales (DSA) cubre la responsabilidad de las redes sociales, y estas aplicaciones no forman parte de esa rama. Según la Ley de IA (DSA), los chatbots no están clasificados como sistemas de alto riesgo, por lo que resulta imposible demostrar que violan alguna regulación que les exija controlar los riesgos.
La pregunta existencial es: ¿necesitamos regulaciones para cubrir todos los riesgos? ¿Hasta qué punto se puede llegar antes de empezar a infantilizar al usuario? Nuestra sociedad ha desarrollado una tendencia hacia la sobreprotección de sus ciudadanos frente a todos los peligros, incluso si con ello se corre el riesgo de prevenir las iniciativas individuales y limitar la innovación. ¿Debería evitarse que una persona se asome al balcón por el riesgo que tiene de caer? ¿En qué punto estamos arrebatándole el libro albedrío al usuario y estamos obligando al fabricante del sistema a protegerlo en contra de su voluntad?
El concepto de cero riesgos no existe, y nunca existirá, así que debemos encontrar un compromiso que permita a los emprendedores y a los creadores de sistemas informáticos:
- Innovar de manera responsable y ética
- No temer las represalias legales cuando un usuario fuerce el sistema a actuar contra sí mismo