Home Uncategorized Dieses Tool testet die Widerstandsfähigkeit der KI gegenüber „toxischen“ Daten

Dieses Tool testet die Widerstandsfähigkeit der KI gegenüber „toxischen“ Daten

16
0
Dieses Tool testet die Widerstandsfähigkeit der KI gegenüber „toxischen“ Daten

Bild: Getty Images

Das National Institute of Standards and Technology (NIST) ist ein Werkzeug erneut freigeben Dabei wird getestet, wie anfällig Modelle der künstlichen Intelligenz (KI) dafür sind, durch bösartige Daten „vergiftet“ zu werden.

Dieser Schritt erfolgt neun Monate nach Präsident Biden Oberster Befehl zur Entwicklung sicherer und vertrauenswürdiger KI und ist eine direkte Reaktion auf die Anforderung des Kommandos, dass NIST bei Modelltests behilflich sein soll. NIST hat außerdem kürzlich ein Programm gestartet, das Amerikanern hilft, KI zu nutzen, ohne synthetischen oder KI-generierten Inhalten zum Opfer zu fallen, und das die Entwicklung von KI zum Wohle der Gesellschaft fördert.

Das Werkzeug heißt Dioptrienwurde ursprünglich vor zwei Jahren veröffentlicht und zielte darauf ab, kleine und mittlere Unternehmen und Regierungsbehörden zu unterstützen. Mit diesem Tool können Sie ermitteln, welche Arten von Angriffen dazu führen, dass Ihr KI-Modell weniger effektiv arbeitet, und den Leistungsabfall messen, um die Bedingungen zu ermitteln, unter denen das Modell versagt.

Auch: Hüten Sie sich vor dem „Modellkollaps“ der KI: Wie das Training auf synthetischen Daten die nächste Generation verunreinigt

Warum ist das wichtig?
Für Unternehmen ist es von entscheidender Bedeutung, Maßnahmen zu ergreifen, um sicherzustellen, dass KI-Programme sicher sind. NIST ermutigt Bundesbehörden aktiv, KI in einer Vielzahl von Systemen einzusetzen. KI-Modelle werden auf vorhandenen Daten trainiert, und wenn jemand absichtlich bösartige Daten einschleust – zum Beispiel Daten, die die KI dazu bringen, Stoppschilder oder Geschwindigkeitsbegrenzungen zu ignorieren – könnten die Ergebnisse katastrophal sein, betont NIST.

Obwohl KI viele transformative Vorteile mit sich bringt, sagte NIST-Direktorin Laurie E. Locascio, dass die Technologie Risiken birgt, die weitaus größer sind als die, die mit anderen Arten von Software verbunden sind. „Dieser Leitfaden und die Testplattform werden Softwarehersteller über diese einzigartigen Risiken informieren und ihnen dabei helfen, Möglichkeiten zu entwickeln, diese Risiken zu mindern und gleichzeitig Innovationen zu unterstützen“, bemerkte er in der Pressemitteilung.

Außerdem: Sicherheitsrichtlinien stellen die erste Ebene des Datenschutzes dar, die im KI-Goldrausch benötigt wird

Dioptra kann mehrere Kombinationen aus Angriffs-, Verteidigungs- und Modellarchitekturen testen, um besser zu verstehen, welche Angriffe die größte Bedrohung darstellen könnten, so NIST, und welche Lösungen möglicherweise am besten sind.

Das Tool verspricht nicht, alle Risiken zu eliminieren, aber es soll dazu beitragen, Risiken zu reduzieren und gleichzeitig Innovationen zu unterstützen. zum Download verfügbar frei.

Source link