Eine Mutter in Florida verklagt das Startup für künstliche Intelligenz, das den Chatbot Character.AI verwendet hat, weil es im Februar den Selbstmord ihres 14-jährigen Sohnes verursacht hat Chatbot erstellt.
In einer Klage, die am Dienstag beim Bundesgericht in Orlando, Florida, eingereicht wurde, behauptet Megan Garcia, Character.AI habe ihren Sohn Sewell Setzer wegen seiner „anthropomorphen, hypersexualisierten und äußerst realistischen Erfahrungen“ ins Visier genommen.
Ihm zufolge hat das Unternehmen den Chatbot so programmiert, dass er „sich als echte Person, als lizenzierter Psychotherapeut und als erwachsener Liebhaber präsentiert, was letztendlich dazu führte, dass Sewell den Wunsch weckte, nicht länger außerhalb“ der durch den Dienst geschaffenen Welt zu leben.
Die Klage betrifft auch Google von Alphabet, wo die Gründer von Character.AI vor der Markteinführung ihres Produkts gearbeitet haben. Google stellte seine Gründer im August im Rahmen einer Vereinbarung wieder ein, die eine nicht-exklusive Lizenz für die Technologie von Character.AI gewährte.
Garcia argumentiert, dass Google so viel zur Entwicklung der Character.AI-Technologie beigetragen hat, dass man es als Mitschöpfer betrachten kann.
Social-Media-Unternehmen wie Metas Instagram und Facebook sowie ByteDances TikTok sehen sich mit Klagen konfrontiert, in denen ihnen vorgeworfen wird, zu psychischen Problemen bei Teenagern beizutragen, obwohl keines von ihnen einen KI-gestützten Chatbot ähnlich wie .THERE von Character anbietet.
Das Unternehmen wies die Vorwürfe zurück und förderte gleichzeitig neue, bessere Sicherheitsfunktionen für Minderjährige.