Home Uncategorized Sucht nach sehr leistungsstarken KI-Wasserzeichen

Sucht nach sehr leistungsstarken KI-Wasserzeichen

16
0
Sucht nach sehr leistungsstarken KI-Wasserzeichen

Foto: Anadmist/Getty Images

Heutzutage werden wir mit solchen Dingen überschwemmt – „deep-fake“-Fotos, die fast nicht von der Realität zu unterscheiden sind (bis auf die zusätzlichen Finger), von KI generierte Artikel und Papiere, die realistisch klingen (obwohl sie immer noch gestelzt wirken), von KI hergestellte Rezensionen und viele andere. Darüber hinaus können KI-Systeme urheberrechtlich geschütztes Material oder geistiges Eigentum als Trainingsdaten von Websites extrahieren und so Benutzer potenziellen Rechtsverletzungen aussetzen.

Außerdem: Die meisten Menschen haben Angst vor Deepfakes – und überschätzen ihre Fähigkeit, sie zu erkennen

Das Problem ist natürlich, dass KI-Inhalte immer besser werden. Wird es eine wirklich leistungsstarke Möglichkeit geben, KI-generiertes Material zu identifizieren? Und was sollten KI-Entwickler und ihre Unternehmen über neue Techniken verstehen?

„Ursprünglich war der Einsatz generativer KI zu Spaß- und Bildungszwecken gedacht, aber mittlerweile sehen wir, dass viele Kriminelle KI für schändliche Zwecke nutzen.“ Andy TuraiVizepräsident und Hauptanalyst bei Constellation Research, sagte gegenüber ZDNET.

Medieninhalte – Bilder, Videos, Audiodateien – seien besonders anfällig dafür, „falsch interpretiert, plagiiert, gestohlen oder überhaupt nicht erwähnt zu werden“, fügte Thurai hinzu. Dies bedeutet, dass „die Urheber nicht die Anerkennung oder das Einkommen erhalten, die sie verdienen.“ Eine zusätzliche Gefahr sei „die Verbreitung von Desinformation, die Entscheidungen beeinflussen könnte“, sagte er.

Aus Textsicht besteht das Hauptproblem in der großen Anzahl von Befehlen und Iterationen über Sprachmodelle, die dazu neigen, Wasserzeichen wegzulassen oder nur minimale Informationen bereitzustellen, so eine aktuelle Studie Papier geschrieben von Forschern der University of Chicago unter der Leitung von Aloni CohenAssistenzprofessor an der Universität. Sie fordern einen neuen Ansatz – Mehrbenutzer-Wasserzeichen – „der die Rückverfolgung von modellgeneriertem Text auf einzelne Benutzer oder kaskadierende Benutzergruppen ermöglicht, selbst angesichts adaptiver Abfragen.“

Auch: Photoshop vs. Midjourney vs. DALL-E 3: Nur ein KI-Bildgenerator hat meine 5 Tests bestanden

Die Herausforderung für Text und Medien besteht darin, dass man zum digitalen Wasserzeichen von Sprachmodellen und KI-Ausgaben erkennbare Signale einbetten muss, die nicht geändert oder entfernt werden können.

Derzeit laufen branchenweite Initiativen zur Entwicklung hochsicherer KI-Wasserzeichen. Zum Beispiel, Koalition für Authentizität und Authentizität von Inhalten (C2PA) – eine gemeinsame Initiative, die durch eine Allianz zwischen Adobe, Arm, Intel, Microsoft und Truepic entstanden ist – entwickelt einen offenen technischen Standard, der Herausgebern, Urhebern und Verbrauchern „die Möglichkeit geben soll, die Herkunft verschiedener Arten von Medien zurückzuverfolgen“.

Auch: KI-Wissenschaftler: „Wir müssen über den Tellerrand großer Sprachmodelle hinausdenken“

C2PA bündelt von Adobe geleitete Bemühungen Content Authenticity Initiative (CAI)das sich auf Systeme zur Bereitstellung von Kontext und Geschichte für digitale Medien konzentriert, und Projektursprungeine von Microsoft und der BBC geleitete Initiative zur Bekämpfung von Desinformation im digitalen Nachrichten-Ökosystem.

„Ohne Standardzugriff auf Erkennungstools wird die Überprüfung, ob Inhalte KI-generiert sind, zu einem teuren, ineffizienten und Ad-hoc-Prozess“, so Alessandra Sala von Shutterstock in einem Bericht herausgegeben von Internationale Fernmeldeunion (ITU) – UN-Agentur für digitale Technologien. „Im Wesentlichen geht es darum, alle verfügbaren KI-Erkennungstools einzeln auszuprobieren und immer noch nicht sicher zu sein, ob einige Inhalte von KI generiert wurden.“

Die Entwicklung generativer KI-Plattformen „erfordert eine öffentliche Registrierung von Modellen mit Wasserzeichen sowie universelle Erkennungstools“, betonte Sala. „Bis dahin sollten ethische KI-Benutzer bei jedem Unternehmen auf Ad-hoc-Basis Wasserzeichendienste anfordern, um zu überprüfen, ob Inhalte mit Wasserzeichen versehen sind.“

Auch: Die heutige Herausforderung: Unklare KI-Ergebnisse und fragwürdige Genauigkeit überwinden

Die C2PA-Initiative fördert die „weit verbreitete Einführung von Inhaltsnachweisen, also manipulationssicheren Metadaten, die an digitale Inhalte angehängt werden können“, erklärt Thurai. Er vergleicht Inhaltsnachweise mit „Nährwertkennzeichnungen“, die Ersteller an ihre digitalen Inhalte anhängen können, um die Herkunft der Inhalte nachzuverfolgen.“ Mit diesem offenen Standard werden Verlage, Urheber und Verbraucher in der Lage sein, „den Ursprung und die Entwicklung von Medien, einschließlich Bildern, Videos, Audio und Dokumenten, zu verfolgen“, fügte er hinzu.

Die Funktionsweise besteht darin, dass Inhaltsersteller „Online-Anerkennung für ihre Arbeit erhalten, indem sie Informationen wie ihren Namen oder ihr Social-Media-Konto direkt an die von ihnen erstellten Inhalte anhängen“, sagte Thurai. Dazu müssen Sie lediglich auf einen Pin klicken, der einem Inhalt beigefügt ist, oder eine Website besuchen, um dessen Herkunft zu überprüfen. Diese Tools „validieren relevante Informationen und liefern einen detaillierten Verlauf der Änderungen im Laufe der Zeit.“

Source link