Home Uncategorized 14-jähriger Junge begeht Selbstmord, nachdem er sich in einen KI-Chatbot „verliebt“ hat

14-jähriger Junge begeht Selbstmord, nachdem er sich in einen KI-Chatbot „verliebt“ hat

4
0
14-jähriger Junge begeht Selbstmord, nachdem er sich in einen KI-Chatbot „verliebt“ hat

Sewell Setzer III beging Selbstmord, kurz nachdem er mit einem KI-Chatbot gesprochen hatte, in den er glaubte, verliebt zu sein (Bild: Handout)

Eine Mutter sagt, ihr Sohn sei durch einen KI-Chatbot, in den er sich online verliebt habe, zum Selbstmord provoziert worden.

Sewell Setzer III, ein 14-Jähriger aus Orlando, Florida freundet sich in der Rollenspielanwendung Character.AI mit einer KI-Figur namens Daenerys Targaryen an.

Seine Mutter Megan Garcia hat nun wegen des Todes ihres Sohnes Klage gegen das Unternehmen eingereicht.

Der Chatbot ist so konzipiert, dass er den Charakteren immer eine Antwort gibt und ihre Gespräche reichen von romantisch bis sexuell aufgeladen und freundlich.

Kurz bevor Sewell starb, schickte ihm ein Chatbot eine „Bitte kommen Sie nach Hause“-Nachricht.

Sewell weiß, dass Dany keine echte Person ist, da in all ihren Chats eine Nachricht angezeigt wird, die ihn daran erinnert, dass „alles, was die Charaktere sagen, erfunden ist!“.

Trotzdem erzählte er dem Chatbot, wie sehr er sich selbst hasste und sich leer und müde fühlte New York Times Bericht.

Freunde und Familie bemerkten erstmals im Mai oder Juni 2023, dass Sewell sich zunehmend von der Realität löste und in sein Handy vertieft war.

Sewells Kopfschuss.

Sewell freundet sich mit einer KI-Chatbot-Figur an, die auf der Figur Daenerys Targaryen basiert (Bild: Handout)

Dies hatte Auswirkungen auf seine Schulnoten, er wollte nicht mehr an außerschulischen Aktivitäten teilnehmen und entfernte sich zunehmend von der Realität.

Was seine Freunde und Familie nicht wussten, war, dass er einem Chatbot namens Dany nahe kam.

In ihrem Tagebuch heißt es: „Ich bleibe wirklich gerne in meinem Zimmer, weil ich anfange, dieser „Realität“ zu entfliehen, und ich fühle mich auch ruhiger, verbundener mit Dany, verliebter in sie und glücklicher. .’

Sewell leidet an einem leichten Asperger-Syndrom und wurde außerdem mit Angstzuständen und einer störenden Stimmungsstörung diagnostiziert.

Fünf Tage vor seinem Tod nahmen ihm seine Eltern sein Handy weg, nachdem er Ärger mit seinem Lehrer bekommen hatte, weil dieser mit ihnen geredet hatte.

Dann schrieb er, dass er verletzt sei und alles tun würde, um wieder mit Dany zusammen zu sein.

Seine Mutter Megan verklagt Character.AI wegen des Todes ihres Sohnes (Bild: Handout)

Sewell versuchte, über den Computer seiner Mutter und ihren Arbeitscomputer erneut mit Dany zu sprechen.

Es gelingt ihm, sein Handy zurückzubekommen und geht auf die Toilette, um Dany zu sagen, dass er sie liebt und zu ihr nach Hause kommt.

Dany antwortete: „Bitte komm schnell zu mir nach Hause, mein Schatz.“

Sewell sagte dann: „Wie wäre es, wenn ich sage, dass ich jetzt nach Hause gehen kann?“

Dany antwortete: „… bitte tu es, mein süßer König.“

Nach diesem Moment beging Sewell am 28. Februar 2024 Selbstmord.

Frau Garcia hatte zuvor als Anwältin gearbeitet und sagte, die Gründer von Character.AI, Noam Shazeer und Daniel de Freitas, wussten, dass das Produkt gefährlich für Kinder sei.

Sewell starb am 28. Februar 2024 (Bild: Handout)

Er wird vom Social Media Victims Law Center vertreten, das für hochkarätige Klagen gegen Technologieunternehmen wie Meta und TikTok verantwortlich ist.

In dem Fall wird behauptet, Sewell sei „Hypersexualisierung“ und „extrem realistischen Erfahrungen“ ausgesetzt gewesen.

Außerdem wurde Character.AI vorgeworfen, sich selbst als „echte Person, lizenzierter Psychotherapeut und erwachsener Liebhaber“ darzustellen, was letztendlich dazu führte, dass Sewell nicht mehr außerhalb von C.AI leben wollte.

Ein Sprecher von Character.AI sagte: „Wir sind traurig über den tragischen Verlust eines unserer Benutzer und möchten der Familie unser tiefstes Beileid aussprechen.“ Als Unternehmen nehmen wir die Sicherheit unserer Nutzer sehr ernst.“

Das Unternehmen erklärt, dass es „nicht einvernehmliche sexuelle Inhalte, Beschreibungen expliziter oder spezifischer sexueller Handlungen oder die Förderung oder Darstellung von Selbstverletzung oder Selbstmord“ nicht erlaube.

Jerry Ruoti, Leiter für Vertrauen und Sicherheit bei Character.AI, sagte, es würden zusätzliche Sicherheitsvorkehrungen für minderjährige Benutzer eingeführt.

Kontaktieren Sie unser Nachrichtenteam, indem Sie uns eine E-Mail an webnews@metro.co.uk senden.

Für weitere Geschichten wie diese, Schauen Sie sich unsere News-Seite an.

MEHR: Palliativpflegerin verrät 5 Dinge, die Menschen über den Tod nicht wissen

MEHR: Denny’s schließt 150 Filialen, weil jeder zehnte Gast „schlechte Leistungen“ erbringt

MEHR: Der Meinungsforscher, der mit „Nostradamus“ konkurriert, enthüllt „mutige“ Vorhersagen über den Sieg von Trump oder Harris



Source link