Deadbots zijn een type chatbot waarmee men in gesprek kan gaan met overleden personen. De eerste versies hiervan ontstonden al voor de opkomst van ChatGPT, maar achteraf gezien brengen ze bepaalde risico’s met zich mee. In dit artikel analyseer ik deze bots en bespreek ik tevens de kwestie van strafrechtelijke aansprakelijkheid.
Deadbots zijn een nieuwe toepassing van kunstmatige intelligentie. Het gaat om chatbots die de reacties van overleden personen nabootsen, waardoor communicatie met hen mogelijk lijkt. Deze ontwikkeling maakt deel uit van een bredere trend richting virtualisatie van relaties en het vervagen van de grens tussen de fysieke en digitale wereld. Recente voorbeelden tonen aan dat interactie met deze kunstmatige intelligenties risico’s kan inhouden en ernstige gevolgen kan hebben. Dit werpt de vraag op over de strafrechtelijke aansprakelijkheid van AI.
Neem contact op met marktonderzoeksbureau IntoTheMinds
Joshua Barbeau sprak met zijn 8 jaar geleden overleden vriendin
In augustus 2021 publiceerde de San Francisco Chronicles (Engelse site) het verhaal van Joshua Barbeau, een 33-jarige Canadees. Acht jaar eerder overleed de jonge vrouw met wie hij een relatie had, Jessica Pereira, aan een zeldzame ziekte.
Bij het surfen op het internet kwam Joshua terecht bij “Project December”, een chatbot ontworpen door een freelance programmeur genaamd Jason Rohrer.
Nadat hij een account had geopend, “voedde” Joshua Barbeau de chatbot met berichten die hij van zijn overleden vriendin had bewaard. Toen gebeurde het onverwachte. De chatbot, gebaseerd op Google’s GPT-3 bibliotheek, imiteerde Jessica’s stijl perfect en reageerde bijzonder … menselijk.
Leven na de dood: het is al mogelijk … dankzij kunstmatige intelligentie
Het voorbeeld van Joshua Barbeau laat zien dat de vooruitgang op het gebied van kunstmatige intelligentie enkele verrassingen in petto heeft voor toekomstige toepassingen. Bovendien hebben de ondernemingen niet gewacht op een financiële meevaller. De moeilijkheid om te rouwen, de verscheidenheid aan culten rond de dood, het zijn allemaal gelegenheden om te voldoen aan een vraag die tot nu toe science fiction was. Het recente octrooi (Engelse site) dat Microsoft heeft aangevraagd om een chatbot te ontwikkelen die zo ver zou gaan dat hij de stem van de overledene zou imiteren, is daar een goed voorbeeld van.
Een ander verontrustend experiment werd in 2020 in Zuid-Korea uitgevoerd met een combinatie van virtuele realiteit en kunstmatige intelligentie (zie video hierboven). Jang Ji-Sung was in staat om voor een kort moment herenigd te worden met zijn dochter die 3 jaar eerder was overleden aan een bloedziekte. De video hieronder, die het moment toont waarop het virtuele de werkelijkheid ontmoet, is verontrustend en uiterst ontroerend. Het laat duidelijk alle vragen zien die kunnen rijzen bij het gebruik van kunstmatige intelligentie om de grenzen van de dood te overwinnen.
Kunstmatige intelligentie wordt ook gebruikt om familiefoto’s weer tot leven te brengen. Deep Nostalgia is een dienst van MyHeritage waarmee foto’s van overledenen kunnen worden geanimeerd. Ook hier is het resultaat verbluffend, maar het kan ook controversiële resultaten opleveren, zoals blijkt uit de video hieronder.
De ethische uitdagingen van deadbots
Zoals u ziet, brengt het weer tot leven wekken van de doden een aantal ethische problemen met zich mee. Frankrijk was een van de eerste landen die zich vanuit wetgevend oogpunt voor deadbots interesseerden. In november 2021 bracht de ethische commissie advies (Franse site) uit aan de premier. Dit advies bevat een specifiek hoofdstuk over deadbots en werpt een aantal vragen op:
- Toestemming van de overledene voor het gebruik van zijn/haar gegevens na zijn/haar overlijden
- Risico’s als gevolg van de imitatie van de persoon (levend of dood)
- Psychologische gevolgen voor de persoon die met de overledene praat
De vooruitgang op het gebied van kunstmatige intelligentie is op heel wat gebieden een zegen. De alomtegenwoordige algoritmes vergemakkelijken ons digitale leven, bijvoorbeeld door informatieve inhoud aan te bevelen. Elke vooruitgang brengt echter zijn afwijkingen met zich mee, zoals deze voorbeelden van hacking aantonen.
Met deadbots, wagen computer wetenschappers zich op gevaarlijk terrein. De dood is geen “domein” zoals alle andere. Een mens werd mens toen hij zich bewust werd van zijn eigen dood. Het is dit bewustzijn dat deadbots dreigt te verstoren, ondanks alle voorzorgsmaatregelen die kunnen worden genomen. Door zich op het terrein van het hiernamaals te begeven, dreigt kunstmatige intelligentie ons achteruit te doen gaan.
De strafrechtelijke aansprakelijkheid van AI: de zaak van Character.ai
Een tiener pleegde zelfmoord nadat hij verslaafd was geraakt aan zijn chatbot op basis van generatieve AI. Dit is het verhaal van Character.ai, een door Google gekochte applicatie waarmee u kunt praten met echte mensen, levend of dood, en fictieve personages. Met Character.ai kunt u in gesprek gaan met figuren als Napoleon, Alan Turing, Robert Nixon en vele anderen. Het bedrijf ziet zich echter geconfronteerd met een rechtszaak die is aangespannen door de moeder van een tiener. Zij verwijt het bedrijf een product op de markt te hebben gebracht dat mogelijk risico’s voor kinderen met zich meebrengt en ouders hierover niet te hebben gewaarschuwd.
Helaas is dit geval niet het eerste. In juni 2023 pleegde ook een Belgische vader zelfmoord nadat hij 6 weken lang had gepraat met een chatbot genaamd Eliza
Hoe zit het dan met de wettelijke aansprakelijkheid van conversationele AI in het algemeen, en van chatbots die mensen nabootsen in het bijzonder? Momenteel vallen deze technologieën buiten vrijwel elke bestaande regelgeving, zelfs binnen Europa De Digital Services Act (DSA) richt zich op de aansprakelijkheid van sociale media, maar deze AI-toepassingen vallen daarbuiten. De AI Act beschouwt chatbots niet als systemen met een hoog risico. Hierdoor is het niet mogelijk om aan te tonen dat ze in strijd zijn met enige regelgeving die hen zou verplichten om risico’s te beheersen.
De existentiële vraag hier is: hebben we werkelijk regelgeving nodig om alle risico’s af te dekken? Op welk moment beginnen we de gebruiker te betuttelen? Onze maatschappij neigt er steeds meer naar om burgers tegen elk denkbaar risico te beschermen, maar dit kan ten koste gaan van individueel initiatief en het beperken van innovatie. Moeten we mensen verbieden over een balkon te leunen omdat er een risico op vallen bestaat? Waar ligt de grens tussen het behoud van de vrije wil van de gebruiker en het verplichten van fabrikanten om gebruikers tegen hun eigen keuzes te beschermen?
Nulrisico bestaat niet en zal ook nooit bestaan. Daarom moeten we een compromis vinden dat ondernemers en ontwerpers van IT-systemen de ruimte biedt om:
- verantwoord en ethisch te innoveren
- zonder angst voor juridische consequenties als een gebruiker het systeem op een manier gebruikt die schadelijk voor zichzelf kan zijn