Home Uncategorized Die Studie ergab, dass Zuschauer Kandidaten misstrauen, die generative KI in politischen...

Die Studie ergab, dass Zuschauer Kandidaten misstrauen, die generative KI in politischen Anzeigen einsetzen

8
0
Die Studie ergab, dass Zuschauer Kandidaten misstrauen, die generative KI in politischen Anzeigen einsetzen

Es wird erwartet, dass künstliche Intelligenz die bevorstehende US-Wahl im November beeinflussen wird. Staaten haben versucht, sich vor Fehlinformationen zu schützen, indem sie Gesetze erlassen haben, die die Offenlegung politischer Anzeigen vorschreiben, wenn sie generative KI verwenden. Inzwischen gibt es in 20 Staaten schriftliche Regelungen, und zwar im Rahmen der neuen Regelungen Die Wähler reagierten negativ auf die Ablehnung. Dies scheint eine durchaus faire Antwort zu sein: Wenn ein Politiker generative KI einsetzt, um Wähler in die Irre zu führen, werden die Wähler das nicht zu schätzen wissen. Die Studie wurde vom Center for Technology Policy der New York University durchgeführt und erstmals veröffentlicht von .

Im Rahmen der Untersuchung wurden tausend Teilnehmer gebeten, sich politische Anzeigen fiktiver Kandidaten anzusehen. Einige Anzeigen enthalten einen Haftungsausschluss, dass bei der Erstellung des Spots KI verwendet wurde, während andere keinen Haftungsausschluss haben. Das Vorhandensein eines Haftungsausschlusses ist damit verbunden, dass die Zuschauer den beförderten Kandidaten als weniger vertrauenswürdig und weniger attraktiv bewerten. Die Befragten gaben außerdem an, dass sie eine Anzeige in den sozialen Medien eher kennzeichnen oder melden würden, wenn sie einen Haftungsausschluss enthielte. Bei Angriffsanzeigen äußerten die Teilnehmer eher eine negative Meinung über den Kandidaten, der die Anzeige sponserte, als über den Kandidaten, der angegriffen wurde. Die Forscher fanden außerdem heraus, dass das Vorhandensein eines KI-Haftungsausschlusses dazu führte, dass sich die Meinungen verschlechterten oder sich änderten, unabhängig von der politischen Partei des fiktiven Kandidaten.

Die Forscher testeten zwei verschiedene Haftungsausschlüsse, die von zwei unterschiedlichen staatlichen Anforderungen für die Offenlegung von KI in politischen Anzeigen inspiriert waren. Der Text zum Michigan-Gesetz lautet: „Dieses Video wurde mit technischen Mitteln manipuliert und zeigt Äußerungen oder Handlungen, die nicht stattgefunden haben.“ Ein weiterer Haftungsausschluss basiert auf dem Recht Floridas und lautet: „Dieses Video wurde ganz oder teilweise mit generativer künstlicher Intelligenz erstellt.“ Obwohl Michigans Ansatz in Bezug auf Anforderungen in den Gesetzen der einzelnen Bundesstaaten üblicher ist, gaben die Studienteilnehmer an, dass sie umfassendere Haftungsausschlüsse für alle Arten der KI-Nutzung vorziehen würden.

Diese Haftungsausschlüsse können zwar zur Transparenz über das Vorhandensein von KI in einer Anzeige beitragen, sind aber keine perfekte Lösung. Ganze 37 Prozent der Befragten gaben an, dass sie sich nicht daran erinnern könnten, nach dem Ansehen der Anzeige etwas über KI gehört zu haben.

Fuente

Source link