Home Uncategorized KI-generierte Bilder von sexuellem Kindesmissbrauch unter Verwendung realer Opfer als Referenzmaterial

KI-generierte Bilder von sexuellem Kindesmissbrauch unter Verwendung realer Opfer als Referenzmaterial

26
0
KI-generierte Bilder von sexuellem Kindesmissbrauch unter Verwendung realer Opfer als Referenzmaterial

Mithilfe von KI wurden Deepfake-Bilder von sexuellem Kindesmissbrauch erstellt, die auf echten Opfern basieren (Bild: Getty)

Zur Produktion wird KI eingesetzt Einem Bericht zufolge nutzen Deepfake-Bilder von sexuellem Kindesmissbrauch Fotos von echten Opfern als Referenzmaterial.

Die Internet Watch Foundation (IWF), die die Entdeckung machte, verwendete das Beispiel eines Mädchens namens Olivia (nicht ihres richtigen Namens), das im Alter zwischen drei und acht Jahren Opfer von Folter und Vergewaltigung wurde.

Olivia, jetzt in ihren Zwanzigern, wurde 2023 von der Polizei gerettet, doch Jahre später nutzten Dark-Web-Nutzer KI-Tools, um computergenerierte Bilder von ihr in neuen Gewaltsituationen zu erstellen, nachdem ihr Täter Videos und Aufnahmen von ihr online hochgeladen hatte.

Pädophile hätten kürzlich Sammlungen von Bildern namentlich genannter Opfer wie Olivia angehäuft und diese zur Verfeinerung von KI-Modellen genutzt, um neues Material zu erstellen, so die IWF.

Hacker arbeiten heimlich in geheimen Räumen.  Geheimnisvolle farbige Lichter dringen in persönliche Sicherheitseinrichtungen und verschiedene Institutionen auf der Welt ein.  Der gesuchte Hacker nutzte Computer, um Cyber-Rechenzentren zu hacken.

Die Internet Watch Foundation (IWF) machte eine erschreckende Entdeckung (Bild: Getty)

Obwohl der Besitz von durch KI erzeugten Bildern von Kindersex illegal ist, sind die zu ihrer Herstellung verwendeten Werkzeuge legal und die Nutzung ist kostenlos.

Einige Deepfake-Videos zeigen Pornos für Erwachsene, die so verändert wurden, dass sie die Gesichter von Kindern zeigen. Bei anderen handelt es sich um vorhandene Videos von sexuellem Kindesmissbrauch, denen die Gesichter anderer Kinder überlagert wurden.

Und da sie auf realen Bildern basierten, stellte das IWL fest, dass 90 % der Bilder realistisch genug waren, um nach denselben Gesetzen beurteilt zu werden wie tatsächliches Material über sexuellen Kindesmissbrauch.

Dem Bericht zufolge wurden auch andere KI-Modelle verwendet, um sexuelle Bilder von prominenten Kindern zu erzeugen.

Das IWF warnt davor, dass „Hunderte von Bildern mit nur einem Klick generiert werden können“ und einige von ihnen „eine nahezu perfekte Qualität haben und wie echte Fotos sind“.

Der Bericht hebt auch hervor, wie schnell die Technologie ihre Fähigkeit verbessert, vollständig synthetische AI-CSAM-Videos zu produzieren. Ein „schockierendes“, vollständig KI-generiertes 18-Sekunden-Video, das von IWF-Analysten im transparenten Internet entdeckt wurde, zeigt einen erwachsenen Mann, der ein Mädchen vergewaltigt, das etwa zehn Jahre alt zu sein scheint. Das Video flackert und stottert, doch die im Clip dargestellten Misshandlungen werden von Analysten als „deutlich und nachhaltig“ beschrieben.

Obwohl diese Art von Videos noch nicht ausgefeilt genug sind, um als tatsächliche Videos über sexuellen Kindesmissbrauch zu gelten, sagen Analysten, dass es sich um die „schlechtesten“ synthetischen Videos aller Zeiten handelt. Fortschritte in der KI werden bald realistischere Videos produzieren, genauso wie Standbilder fotorealistisch geworden sind.

Andere KI-Modelle wurden auch verwendet, um Bilder von prominenten Kindern zu erstellen, die sexuelle Elemente enthalten (Bild: Getty)

Susie Hargreaves, Geschäftsführerin des IWF, sagte: „Wir werden genau beobachten, wie Industrie, Regulierungsbehörden und Regierungen auf die Bedrohung reagieren, um sicherzustellen, dass Olivias Notlage und die von Kindern wie ihr nicht durch den Einsatz von KI verschärft, neu gedacht und neu erfunden wird.“ Werkzeuge. ‘

In von der IWF untersuchten Dark-Web-Foren diskutierten und tauschten Täter offen Ratschläge darüber aus, wie generative KI-Technologie genutzt werden kann, um Bilder von sexuellem Kindesmissbrauch zu entwickeln.

Es werden Schritt-für-Schritt-Anleitungen für Straftäter gegeben, wie sie ihre eigene „Kinderpornografie“ erstellen können, und es wird darum gebeten, verbesserte CSAM-Modelle bestimmter Opfer oder Prominenter zu benennen.

Deborah Denis, CEO der Lucy Faithfull Foundation, sagte: „Das Betrachten und Teilen sexueller Bilder von Kindern durch Erwachsene ist ein großes Problem, das durch KI noch verschlimmert wird.“ KI und ihre Fähigkeiten entwickeln sich rasant weiter, und die Technologie weist einen inakzeptablen Mangel an Schutz auf, der es Online-Sexualstraftätern von Kindern ermöglicht, sie jeden Tag auszunutzen. Es ist von entscheidender Bedeutung, dass Technologieunternehmen und Politiker dringend mehr tun, um diesen Gefahren zu begegnen.

„Unsere Forschung zeigt, dass es in der Öffentlichkeit eine gravierende Wissenslücke über KI gibt – insbesondere über ihre Fähigkeit, Kindern zu schaden. Die Realität ist, dass Menschen diese neue, unregulierte Technologie nutzen, um einige der schlimmsten sexuellen Bilder von Kindern zu erstellen, sowie sogenannte „Nacktbilder“ von echten Kindern, einschließlich Kindern, die missbraucht wurden.

„Die Menschen müssen wissen, dass KI keine neue Bedrohung ist – sie ist hier und jetzt. Wir brauchen eine Gesellschaft, die wirklich versteht, dass das Erstellen und Betrachten sexueller Bilder von Kindern unter 18 Jahren, unabhängig davon, ob sie durch KI erzeugt wurden oder nicht, illegal ist und Kindern auf der ganzen Welt sehr schweren Schaden zufügt.“

Kontaktieren Sie unser News-Team per E-Mail unter webnews@metro.co.uk.

Für weitere Geschichten wie diese, Schauen Sie sich unsere News-Seite an.

MEHR: 15-jähriger Junge beim Spielen mit Familie im „Teletubbies Park“ erschossen

MEHR: Bemalte Pride-Flagge zum dritten Mal in weniger als einem Monat durch Vandalismus beschädigt

MEHR: Ein kleiner Junge erlitt lebenslange Hirnschäden, nachdem ihn ein Mann auf den Kopf geschlagen hatte



Source link