Deadbots sind eine Kategorie von Chatbots, die die Möglichkeit bieten, mit Toten zu sprechen. Die ersten dieser Bots wurden vor dem Aufkommen von ChatGPT entwickelt, und im Nachhinein sind sie nicht ohne Risiken. Ich analysiere Deabots in diesem Artikel und untersuche die Frage der strafrechtlichen Verantwortlichkeit in Bezug auf ihre Nutzung.

Bei Deadbots handelt es sich um eine neue Anwendung künstlicher Intelligenz. Es sind Chatbots, die es Ihnen ermöglichen, sich mit Verstorbenen zu unterhalten, indem sie deren Antworten imitieren. Ihre Entwicklung ist Teil eines umfassenderen Kontextes der Virtualisierung von Beziehungen und der Verwischung der Grenzen zwischen der physischen und der digitalen Welt. Mehrere aktuelle Beispiele zeigen, dass die Interaktion mit diesen künstlichen Intelligenzen gefährlich sein und schreckliche Folgen haben kann. Dies wirft die Frage nach der strafrechtlichen Verantwortlichkeit von KI auf.
Kontaktieren Sie die IntoTheMinds Marktforschungsagentur
Joshua Barbeau sprach mit seiner Freundin, die vor 8 Jahren starb
Im August 2021 veröffentlichte die San Francisco Chronicles die Geschichte von Joshua Barbeau, einem 33-jährigen Kanadier. Acht Jahre zuvor war seine damalige Freundin Jessica Pereira an einer seltenen Krankheit gestorben.
Beim Surfen im Internet stößt Joshua auf „Project December“, einen Chatbot, der von einem freiberuflichen Programmierer namens Jason Rohrer entwickelt wurde.
Nachdem er ein Konto eröffnet hatte, „fütterte“ Joshua Barbeau den Chatbot mit Nachrichten, die er von seiner verstorbenen Freundin gespeichert hatte. Dann geschah das Unerwartete. Basierend auf der GPT-3-Bibliothek von Google imitierte der Chatbot Jessicas Stil perfekt und produzierte überraschenderweise … einen Menschen.
Leben nach dem Tod: Es ist schon wahr… dank künstlicher Intelligenz
Das Beispiel von Joshua Barbeau zeigt uns, dass die Fortschritte in der Künstlichen Intelligenz einige Überraschungen für zukünftige Anwendungen bereithalten. Die Schwierigkeit der Trauer und die Vielfalt der Sekten rund um den Tod sind so viele Möglichkeiten, einem Wunsch nachzukommen, der bis jetzt Science-Fiction war. Darüber hinaus haben die Unternehmen nicht darauf gewartet, einen finanziellen Glücksfall zu sehen. Ein Beispiel dafür ist das kürzlich von Microsoft eingereichte Patent zur Entwicklung eines Chatbots, der sogar die Stimme des Verstorbenen imitiert.
Ein weiteres unheimliches Experiment wurde 2020 in Südkorea mit der Kombination von Virtual Reality und künstlicher Intelligenz realisiert (siehe Video oben). Jang Ji-Sung traf sich für einen kurzen Moment mit seiner Tochter, die 3 Jahre zuvor an einer Blutkrankheit gestorben war. Das Video unten, das zeigt, wenn das Virtuelle auf das Reale trifft, ist verstörend und sehr bewegend. Es zeigt anschaulich alle Fragen, die sich aus künstlicher Intelligenz ergeben können, um die Grenzen des Todes zu überwinden.
Künstliche Intelligenz wird auch verwendet, um Familienfotos wieder zum Leben zu erwecken. Deep Nostalgia ist ein von MyHeritage angebotener Dienst, der es ermöglicht, Fotos von Verstorbenen zu animieren. Das Ergebnis ist beeindruckend, kann aber zu kontroversen Ergebnissen führen, wie im Video unten gezeigt.
Die ethischen Herausforderungen von Deadbots
Wie Sie sehen, wirft die Wiederbelebung von Toten mehrere ethische Probleme auf. Frankreich war eines der ersten Länder, das sich aus gesetzgeberischer Sicht für Deadbots interessierte. Im November 2021 hat die Ethikkommission dem Ministerpräsidenten ein Gutachten vorgelegt. Diese Stellungnahme enthält ein spezielles Kapitel für Deadbots und wirft mehrere Fragen auf:
- Einwilligung des Verstorbenen zur Nutzung seiner Daten nach seinem Tod
- Risiken aus der Aneignung der Identität der Person (lebend oder verstorben)
- Psychologische Auswirkungen auf die Person, die mit dem Verstorbenen spricht
Der Fortschritt der künstlichen Intelligenz ist für viele Bereiche ein Segen. Algorithmen sind allgegenwärtig und vereinfachen unser digitales Leben, indem sie uns beispielsweise Informationsinhalte empfehlen. Jeder Fortschritt bringt jedoch seinen Anteil an Abweichungen mit sich, wie diese Hacking-Beispiele zeigen.
Mit Deadbots betreten Informatiker gefährliches Terrain. Der Tod ist keine “Domäne” wie die anderen. Der Mensch wurde Mensch, als er sich seines Todes bewusst wurde. Es ist dieses Bewusstsein, dass Deadbots riskieren, trotz aller Vorsichtsmaßnahmen, die wir treffen können, indem sie das Feld des Jenseits investieren, dieses Mal die künstliche Intelligenz riskiert, uns zum Rückschritt zu bringen.
Die strafrechtliche Haftung von KI: der Fall Character.ai
Ein Teenager beging Selbstmord, nachdem er von seinem Chatbot, der auf generativer KI basiert, abhängig geworden war. Dies ist die Geschichte von Character.ai, einer von Google gekauften Anwendung, mit der man sich mit echten Menschen, lebenden oder toten, und fiktiven Figuren unterhalten kann. Mit Character.ai kann man mit Napoleon, Alan Turing und Robert Nixon sprechen. Das Unternehmen sieht sich mit einer Klage der Mutter des Teenagers konfrontiert Sie wirft dem Unternehmen vor, ein Produkt vermarktet zu haben, das für Kinder nicht risikofrei ist, und die Eltern nicht gewarnt zu haben.
Leider ist dieser Fall nicht der erste seiner Art. Im Juni 2023 beging ein belgischer Vater Selbstmord, nachdem er sechs Wochen lang mit einem Chatbot namens Eliza gesprochen hatte.
Wie sieht es also mit der rechtlichen Haftung von Konversations-KI im Allgemeinen und von diesen Chatbots, die Menschen imitieren, im Besonderen aus? Sie entziehen sich allen Vorschriften, selbst in Europa. Der Digital Services Act (DSA) regelt die Haftung für soziale Medien, und diese Anwendungen fallen nicht darunter. Was das KI-Gesetz betrifft, so werden Chatbots darin nicht als Systeme mit hohem Risiko eingestuft. Es ist daher unmöglich nachzuweisen, dass sie gegen Vorschriften verstoßen, die eine Risikokontrolle vorschreiben.
Die entscheidende Frage ist jedoch: Brauchen wir eine Regulierung, die alle Risiken abdeckt? Ab wann bevormunden wir den Benutzer? Unsere Gesellschaft neigt dazu, ihre Bürger vor allen Risiken zu schützen, auch auf die Gefahr hin, dass dadurch die Eigeninitiative unterbunden und Innovationen eingeschränkt werden. Sollte eine Person daran gehindert werden, sich über einen Balkon zu lehnen, weil die Gefahr eines Sturzes besteht? Ab wann nehmen wir einem Benutzer den freien Willen und zwingen den Systemhersteller, ihn gegen seinen Willen zu schützen?
Ein Nullrisiko gibt es nicht und wird es auch nie geben. Wir müssen also einen Kompromiss finden, der es Unternehmern und Entwicklern von Computersystemen ermöglicht,
- verantwortungsbewusst und ethisch zu innovieren
- und keine rechtlichen Repressalien zu fürchten, wenn ein Benutzer das System gegen sie selbst missbraucht.