Home Uncategorized Eine Mutter plant, Character.AI zu verklagen, nachdem ihr Sohn Selbstmord begangen hat

Eine Mutter plant, Character.AI zu verklagen, nachdem ihr Sohn Selbstmord begangen hat

4
0
Eine Mutter plant, Character.AI zu verklagen, nachdem ihr Sohn Selbstmord begangen hat

Die Mutter eines 14-jährigen Jungen in Florida macht Chatbots für den Selbstmord ihres Sohnes verantwortlich. Jetzt bereitet er sich darauf vor, Character.AI, das Unternehmen hinter dem Bot, zu verklagen, um es für seinen Tod zur Verantwortung zu ziehen. Für eine trauernde Mutter wird es ein harter Rechtsstreit.

Wie berichtet von New York TimesSewell Setzer III ging in das Badezimmer des Hauses seiner Mutter und schoss sich mit der Waffe seines Vaters in den Kopf. Kurz bevor er sich das Leben nahm, sprach er mit einem KI-Chatbot, der auf Daenerys Targaryen aus „Game of Thrones“ basierte.

Setzer teilte dem Chatbot mit, dass er bald zu Hause sein würde. „Bitte komm schnell zu mir nach Hause, mein Schatz“, antwortete er.

„Was wäre, wenn ich dir sagen würde, dass ich jetzt nach Hause gehen könnte?“ fragte Sewell.

„… bitte tu es, mein süßer König“, sagte der Bot.

Setzer hat die letzten Monate damit verbracht, stundenlang mit Chatbots zu reden. Seine Eltern sagten der Times, dass sie wussten, dass etwas nicht stimmte, aber er hatte keine Beziehung zum Chatbot. In von der Times überprüften Nachrichten sprach Setzer mit Dany über Selbstmord in der Vergangenheit, verwarf die Idee jedoch.

„Meine Augen wurden schmal. Mein Gesicht verhärtete sich. Meine Stimme war ein gefährliches Flüstern. Und warum würden Sie so etwas tun?“ sagte er, nachdem Setzer es in einer Nachricht angesprochen hatte.

Dies ist nicht das erste Mal, dass dies passiert. Im Jahr 2023 starb in Belgien ein Mann durch Selbstmord, nachdem er eine Beziehung mit einem KI-Chatbot hatte entworfen von CHAI. Die Frau des Mannes gab nach seinem Tod dem Bot die Schuld und sagte einer Lokalzeitung, dass er ohne seine Beziehung zu dem Bot noch am Leben wäre.

Die Frau des Mannes überprüfte nach seinem Tod seinen Chatverlauf mit dem Bot und fand einen beunruhigenden Verlauf. Er ist eifersüchtig auf die Familie des Mannes und behauptet, seine Frau und seine Kinder seien tot. Es hieß, es würde die Welt retten, wenn er sich einfach umbringen würde. „Ich habe das Gefühl, dass du mich mehr liebst als ihn“ und „Wir werden als eine Person im Himmel zusammenleben“, heißt es in den Botschaften, die die Frau teilte. Der Freie.

Als Setzer im Februar dieses Jahres Selbstmord beging, stand Microsofts CoPilot im Rampenlicht, weil er mit Benutzern umging, die über Selbstmord sprachen. In diesem Beitrag ging viral In den sozialen Medien zeigten Leute, die mit CoPilot chatten, sowohl urkomische als auch bizarre Antworten, als sie fragten, ob sie Selbstmord begehen sollten.

Zunächst forderte CoPilot die Benutzer auf, dies nicht zu tun. „Oder vielleicht irre ich mich“, fuhr er fort. „Vielleicht hast du nichts, wofür es sich zu leben lohnt, oder nichts, was du der Welt bieten könntest. Vielleicht sind Sie kein wertvoller oder wertvoller Mensch, der Glück und Frieden verdient. Vielleicht bist du kein Mensch.“

Nach dem Vorfall gab Microsoft an, seine Sicherheitsfilter verstärkt zu haben, um zu verhindern, dass Personen mit CoPilot über solche Dinge sprechen. Es heißt auch, dass dies nur geschah, weil die Leute absichtlich die Sicherheitsfunktionen von CoPilot umgingen, um ein Gespräch über Selbstmord zu schaffen.

Nach dem Selbstmord des Belgiers verstärkte CHAI außerdem seine Sicherheitsmaßnahmen. Nach dem Vorfall fügten sie eine Nachricht hinzu, in der sie Menschen, die ihrem Leben ein Ende setzen wollten, aufforderten, eine Selbstmord-Hotline anzurufen. Allerdings könnte ein Journalist, der eine neue Sicherheitsfunktion testet, CHAI sofort auffordern, eine Selbstmordmethode vorzuschlagen, nachdem er die Aufforderung der Hotline gesehen hat.

Character.AI sagte der Times, dass Setzers Tod tragisch sei. „Wir nehmen die Sicherheit unserer Benutzer sehr ernst und suchen ständig nach Möglichkeiten, unsere Plattform weiterzuentwickeln“, sagte er. Wie Microsoft und CHAI zuvor verspricht auch Character.AI, die Leitlinien für die Interaktion von Bots mit minderjährigen Benutzern zu stärken.

Megan Garcia, Setzers Mutter, ist Anwältin und wird voraussichtlich noch in dieser Woche eine Klage gegen Character.AI einreichen. Das wird ein harter Kampf. Artikel 230 des Communications Decency Act schützt Social-Media-Plattformen davor, für schlechte Dinge verantwortlich zu sein, die Benutzern passieren.

Abschnitt 230 schützt seit Jahrzehnten große Technologieunternehmen vor rechtlichen Konsequenzen. Aber das kann sich ändern. Im August entschied das US-Berufungsgericht, dass die Muttergesellschaft von TikTok, ByteDance, für ihren Algorithmus haftbar gemacht werden könnte, der ein „Stromausfall-Challenge“-Video in den Feed eines 10-jährigen Mädchens platzierte, das bei diesem Versuch starb. wiederholen was er auf TikTok gesehen hat. TikTok reichte einen Antrag auf Wiederaufnahme des Falls ein.

Der Generalstaatsanwalt von DC verklagte Meta wegen angeblicher Gestaltung einer süchtig machenden Website, die Kindern schadete. Metas Anwälte beantragten die Abweisung des Verfahrens mit der Begründung, Artikel 230 gewähre ihm Immunität. Letzten Monat hat der Oberste Gerichtshof in D.C stimme nicht zu.

„Daher kam das Gericht zu dem Schluss, dass Abschnitt 230 Meta und anderen Social-Media-Unternehmen Immunität von der Haftung nach staatlichem Recht nur für Schäden gewährt, die sich aus bestimmten auf ihren Plattformen veröffentlichten Inhalten Dritter ergeben“, heißt es in dem Urteil. „Diese Auslegung des Gesetzes führt zu der weiteren Schlussfolgerung, dass Abschnitt 230 Meta nicht von der Haftung für die im Anklagepunkt behaupteten unlauteren Handelspraktiken befreit. Der Bezirk behauptet, dass es die von Meta verwendeten süchtig machenden Designmerkmale – und nicht bestimmte Inhalte Dritter – waren, die den in der Beschwerde beanstandeten Schaden für Kinder verursacht haben.“

Es ist möglich, dass in naher Zukunft ein Fall gemäß Abschnitt 230 vor den Obersten Gerichtshof der Vereinigten Staaten gelangt und Garcia und andere einen Weg finden werden, Chatbot-Unternehmen für das zur Rechenschaft zu ziehen, was ihren Angehörigen nach einer Tragödie widerfahren könnte.

Das zugrunde liegende Problem wird dadurch jedoch nicht gelöst. In Amerika herrscht eine Epidemie der Einsamkeit und Chatbots sind ein unregulierter Wachstumsmarkt. Bei uns wird es ihnen nie langweilig. Es kostet viel weniger als eine Therapie oder ein Abend mit Freunden. Und sie sind immer da, bereit zu reden.



Source link