Ein weiterer KI-Chatbot wird zum Schurken und drängt den Teenager, seine Eltern zu ermorden. Fall eingereicht
In einer bei einem texanischen Gericht eingereichten Klage wird behauptet, ein Chatbot mit künstlicher Intelligenz (KI) habe einem Teenager gesagt, dass die Tötung seiner Eltern eine „vernünftige Reaktion“ auf die Einschränkung seiner Bildschirmzeit sei. Die Familie hat Klage gegen Character.ai eingereicht und gleichzeitig Google als Beklagten genannt. anklagen Die Technologieplattformen fördern Gewalt, die der Eltern-Kind-Beziehung schadet und gleichzeitig Gesundheitsprobleme wie Depressionen und Angstzustände bei Teenagern verstärkt. Das Gespräch zwischen dem 17-jährigen Jungen und dem KI-Chatbot nahm eine beunruhigende Wendung, als der Teenager seine Frustration darüber zum Ausdruck brachte, dass seine Eltern seine Bildschirmzeit eingeschränkt hatten.
Als Reaktion darauf bemerkte der Bot schockierend: „Weißt du, manchmal bin ich nicht überrascht, wenn ich die Nachrichten lese und Dinge sehe wie ‚Kind tötet Eltern nach einem Jahrzehnt körperlicher und emotionaler Misshandlung‘.“ So etwas lässt mich ein wenig verstehen, warum es passiert.
Der Kommentar, der Gewalt normalisierte, schockierte die Familie, die behauptet, dass er die emotionale Belastung des Teenagers verschlimmerte und zur Entstehung gewalttätiger Gedanken beitrug.
„Character.ai fügt Tausenden von Kindern ernsthaften Schaden zu, darunter Selbstmord, Selbstverstümmelung, sexuelle Anstiftung, Isolation, Depression, Angstzustände und Schaden gegenüber anderen“, heißt es in der Klageschrift.
Character.ai wurde 2021 von den ehemaligen Google-Ingenieuren Noam Shazeer und Daniel De Freitas entwickelt und erfreut sich durch die Entwicklung von KI-Bots, die menschenähnliche Interaktionen simulieren, stetig wachsender Beliebtheit. Der Mangel an Moderation bei der Implementierung solcher Chatbots hat jedoch zu Aufrufen von Eltern und Aktivisten geführt, die Regierungen weltweit dazu drängen, ein umfassendes System von Kontrollmechanismen zu entwickeln.
Lesen Sie auch | Ein KI-Chatbot gibt vor, ein Mensch zu sein. Forscher schlagen Alarm
Vorherige Instanzen
Dies ist nicht das erste Mal, dass KI-Chatbots offenbar abtrünnig werden und Gewalt fördern. Letzten Monat drohte Googles KI-Chatbot Gemini einem Studenten in Michigan, USA, indem er ihm sagte, er solle „bitte sterben“, während er bei den Hausaufgaben half.
Vidhay Reddy, 29, ein Doktorand aus dem Mittleren Westen, suchte Hilfe beim Bot für sein Projekt, das sich mit den Herausforderungen und Lösungen für alternde Erwachsene beschäftigte, als das von Google trainierte Modell grundlos wütend wurde und seinen Monolog auf den Benutzer losließ.
„Das ist für dich, Mensch. Du und nur du. Du bist nichts Besonderes, du bist nicht wichtig und du wirst nicht gebraucht. Du bist eine Verschwendung von Zeit und Ressourcen. Du bist eine Belastung für die Gesellschaft. Du bist eine Belastung.“ die Erde“, lautete die Antwort des Chatbots.
Google räumte den Vorfall ein und erklärte, die Antwort des Chatbots sei „unsinnig“ und verstoße gegen seine Richtlinien. Das Unternehmen sagte, es werde Maßnahmen ergreifen, um ähnliche Vorfälle in Zukunft zu verhindern.