Home Uncategorized Singapur veröffentlicht Richtlinien zur Sicherung von KI-Systemen und zum Verbot von Deepfakes...

Singapur veröffentlicht Richtlinien zur Sicherung von KI-Systemen und zum Verbot von Deepfakes bei Wahlen

1
0
Singapur veröffentlicht Richtlinien zur Sicherung von KI-Systemen und zum Verbot von Deepfakes bei Wahlen

alexsl/Getty Images

Singapur hat diese Woche eine Reihe von Ankündigungen zur Cybersicherheit herausgegeben, darunter Richtlinien zur Sicherung von Systemen mit künstlicher Intelligenz (KI), Sicherheitskennzeichnungen für medizinische Geräte und ein neues Gesetz, das Deepfakes in Wahlwerbeinhalten verbietet.

Das ist neu Richtlinien und Begleitleitfaden zur Sicherheit von KI-Systemen zielt darauf ab, einen sicheren Designansatz zu fördern, damit Organisationen potenzielle Risiken bei der Entwicklung und Bereitstellung von KI-Systemen mindern können.

Darüber hinaus: Können KI und Automatisierung die zunehmenden Bedrohungen für die Cybersicherheitslandschaft am besten bewältigen?

„KI-Systeme können anfällig für gegnerische Angriffe sein, bei denen böswillige Parteien KI-Systeme absichtlich manipulieren oder täuschen“, sagte Singapurs Cyber ​​Security Agency (CSA). „Die Einführung von KI kann auch bestehende Cybersicherheitsrisiken für Unternehmenssysteme verschärfen, (die) Risiken wie Datenschutzverletzungen mit sich bringen oder zu gefährlichen oder unerwünschten Modellergebnissen führen können.“

„Daher muss KI wie alle Softwaresysteme von vornherein sicher sein und standardmäßig sicher sein“, sagte die Regierungsbehörde.

Plus: 90 % der Verbraucher und Unternehmen sind von KI-Angst betroffen – erfahren Sie, was sie am meisten beunruhigt

Es wurde darauf hingewiesen, dass in den Leitlinien potenzielle Bedrohungen wie Angriffe auf die Lieferkette und Risiken wie schädliches maschinelles Lernen identifiziert werden. Dieser Standard wurde unter Bezugnahme auf etablierte internationale Standards entwickelt und enthält Grundsätze, die Praktikern bei der Implementierung von Sicherheitskontrollen und Best Practices zum Schutz von KI-Systemen helfen sollen.

Der Leitfaden deckt fünf Phasen des KI-Lebenszyklus ab, darunter Entwicklung, Betrieb und Wartung sowie End-of-Life. Letzteres beleuchtet, wie KI-Modelldaten und Artefakte entsorgt werden sollten.

Darüber hinaus wenden sich Cybersicherheitsexperten der KI zu, da immer mehr Menschen die Kontrolle über Erkennungstools verlieren

Um diesen Begleitleitfaden zu entwickeln, sagte die CSA, sie habe mit KI- und Cybersicherheitsexperten zusammengearbeitet, um „gemeinschaftsbasierte Ressourcen“ bereitzustellen, die „praktische“ Aktionen und Kontrollen bieten. Auch dieser Leitfaden wird aktualisiert, um mit den Entwicklungen auf dem KI-Sicherheitsmarkt Schritt zu halten.

Es besteht aus Fallstudien, einschließlich Patch-Angriffen auf Bilderkennungs-Überwachungssysteme.

Da sich diese Kontrollen jedoch in erster Linie mit Cybersicherheitsrisiken für KI-Systeme befassen, geht dieser Leitfaden nicht auf die KI-Sicherheit oder andere damit verbundene Komponenten wie Transparenz und Fairness ein. Einige empfohlene Schritte könnten sich jedoch überschneiden, sagte die CSA und fügte hinzu, dass die Leitlinien den Missbrauch von KI bei Cyberangriffen wie KI-gestützter Malware oder Betrug wie Deepfakes nicht abdecken.

Auch: Cybersicherheitsteams benötigen neue Fähigkeiten, auch wenn sie Schwierigkeiten haben, Altsysteme zu verwalten

Singapur hat jedoch ein neues Gesetz verabschiedet, das die Verwendung von Deepfakes und anderen digital generierten oder manipulierten Online-Wahlwerbeinhalten verbietet.

Der Inhalt zeigt, wie der Kandidat etwas sagt oder tut, was er nicht gesagt oder getan hat, aber „realistisch genug“ ist, dass die Öffentlichkeit „begründet annehmen“ kann, dass der manipulierte Inhalt echt ist.

Deepfakes sind im Wahlkampf verboten

Das (Wahl zur Integrität in der Online-Werbung) (Änderungsantrag) Gesetzentwurf ratifiziert nach a zweite Lesung im Parlament und auch Inhalte verarbeiten, die mit KI generiert wurden, einschließlich generativer KI (Gen AI), und Nicht-KI-Tools wie Splicing, sagte Josephine Teo, Ministerin für digitale und Informationsentwicklung.

„Dieser Gesetzentwurf zielt darauf ab, die schädlichste Art von Inhalten im Wahlkontext anzugehen, nämlich Inhalte, die die Öffentlichkeit über einen Kandidaten durch falsche Darstellungen seiner Worte oder Handlungen, die realistisch genug sind, um glaubhaft zu sein, irreführen oder täuschen.“ von mehreren Community-Mitgliedern”, sagte Teo. „Realistische Bedingungen werden objektiv beurteilt. Es gibt keine Kriterien, die universell sein können, aber es gibt einige allgemeine Punkte, die vermittelt werden können.“

Hinzu kommt: Ein Drittel aller generativen KI-Projekte wird aufgegeben, sagt Gartner

Dazu gehören Inhalte, die „perfekt zu den bekannten Eigenschaften, Ausdrücken und Verhaltensweisen der Kandidaten passen“, erklärte er. Der Inhalt könne auch reale Personen, Ereignisse und Orte nutzen, was ihn glaubwürdiger erscheinen lasse, fügte er hinzu.

Der Großteil der Öffentlichkeit mag Inhalte, in denen der Premierminister Anlageberatung in den sozialen Medien zeigt, für absurd halten, aber es gebe immer noch einige, die Opfer von KI-gestütztem Betrug werden könnten, sagte er. „In diesem Fall gilt das Gesetz, solange es einen Teil der Öffentlichkeit gibt, der hinreichend sicher ist, dass der Kandidat tatsächlich gesagt oder getan hat, was beschrieben wird“, sagte er.

Darüber hinaus: Alle Augen sind auf die Cyberverteidigung gerichtet, da bei Wahlen das Zeitalter der generativen KI beginnt

Hier sind die vier Komponenten, die erfüllt sein müssen, damit Inhalte nach dem neuen Gesetz verboten werden: ob Online-Wahlanzeigen digital erstellt oder manipuliert wurden und der Kandidat etwas sagt oder tut, was er nicht getan hat, und ob sie realistisch genug sind manche Leute empfinden es als ? in der Öffentlichkeit, um es legal zu machen.

Der Gesetzentwurf verbiete nicht den „vernünftigen“ Einsatz von KI oder anderen Technologien im Wahlkampf, sagte Teo, wie etwa Memes, animierte oder KI-generierte Charaktere und Cartoons. Dies gilt auch nicht für „harmlose kosmetische Veränderungen“, zu denen die Verwendung von Schönheitsfiltern und Beleuchtungsanpassungen in Videos gehören.

Außerdem: Kann KI alle Ihre Geschäftsprobleme lösen? Apples neue Studie legt etwas anderes nahe

Der Minister wies außerdem darauf hin, dass der Gesetzentwurf keine private oder häusliche Kommunikation oder Inhalte abdecken würde, die zwischen Einzelpersonen oder in geschlossenen Gruppenchats geteilt werden.

„Wir wissen jedoch, dass gefälschte Inhalte in offenen Kanälen auf WhatsApp oder Telegram schnell kursieren können“, sagte er. „Sollte gemeldet werden, dass verbotene Inhalte in einem großen Gruppenchat mit vielen sich nicht kennenden Nutzern kommuniziert werden und für die Öffentlichkeit frei zugänglich sind, werden solche Mitteilungen in den Gesetzentwurf aufgenommen und wir prüfen, ob Maßnahmen ergriffen werden müssen.“ genommen. genommen.”

Zusätzlich: Google investiert 3 Milliarden US-Dollar, um von der KI-Nachfrage in Malaysia und Thailand zu profitieren

Das Gesetz gelte auch nicht für Nachrichten, die von offiziellen Nachrichtenagenturen veröffentlicht würden, fügte er hinzu, und auch nicht für gewöhnliche Menschen, die „leichtfertig“ Nachrichten und Links weitergaben, ohne zu bemerken, dass der Inhalt manipuliert wurde.

Die Regierung von Singapur plant, verschiedene Erkennungstools einzusetzen, um zu beurteilen, ob die Inhalte mit digitalen Mitteln erstellt oder manipuliert wurden, erklärte Teo. Dazu gehören kommerzielle Tools, interne Tools und Tools, die mit Forschern wie dem Center for Advanced Technologies in Online Security entwickelt wurden, sagte er.

Darüber hinaus: OpenAI sieht ein neues Büro in Singapur, das sein schnelles Wachstum in der Region unterstützt

In Singapur werden relevanten Personen, einschließlich Social-Media-Diensten, korrigierende Anweisungen erteilt, um verbotene Online-Wahlwerbeinhalte zu entfernen oder den Zugriff darauf zu sperren.

Für Anbieter von Social-Media-Diensten, die der Abhilfemaßnahme nicht nachkommen, können Geldstrafen von bis zu 1 Million Singapur-Dollar verhängt werden. Gegen alle anderen Parteien, einschließlich Einzelpersonen, die der Abhilfeanordnung nicht nachkommen, kann eine Geldstrafe von bis zu 1.000 Singapur-Dollar oder eine Freiheitsstrafe von bis zu einem Jahr oder beides verhängt werden.

Außerdem: Der KI-Arm von Sony Research wird bei der Entwicklung großer Sprachmodelle mit Singapur-KI helfen

„Es gab einen deutlichen Anstieg von Deepfake-Vorfällen in Ländern, in denen Wahlen stattgefunden haben oder geplant sind“, zitierte Teo Forschung von Sumsub Darin wird im Vergleich zum Vorjahr ein Anstieg der Deepfake-Vorfälle in Indien um das Dreifache und in Südkorea um mehr als das 16-Fache geschätzt.

„KI-generierte Fehlinformationen können die Grundlagen unserer Demokratie ernsthaft gefährden und erfordern eine ebenso ernsthafte Reaktion“, sagte er. Der neue Gesetzentwurf werde „die korrekte Vertretung der Kandidaten“ sicherstellen und die Integrität der Wahlen in Singapur wahren, fügte er hinzu.

Ist dieses Medizinprodukt sicher genug?

Singapur versucht auch, Benutzern dabei zu helfen, medizinische Geräte zu erhalten, die sicher genug sind. Am Mittwoch startete CSA eine Cybersicherheitskennzeichnungsschema für solche GeräteErweiterung des Programms um Produkte für das Internet der Dinge (IoT) für Verbraucher.

Die neue Initiative wurde gemeinsam mit dem Gesundheitsministerium, der Health Sciences Authority und der nationalen Gesundheitstechnologieagentur Synapxe entwickelt.

Darüber hinaus: Singapur strebt mit neuem KI-Forschungszentrum einen „praktischen“ medizinischen Durchbruch an

Diese Etiketten sollen das Sicherheitsniveau von Medizinprodukten anzeigen und es Benutzern im Gesundheitswesen ermöglichen, fundierte Kaufentscheidungen zu treffen, so die CSA. Dieses Programm gilt für Geräte, die personenbezogene Daten und klinische Daten verarbeiten und Daten erfassen, speichern, verarbeiten und übertragen können. Dies gilt auch für medizinische Geräte, die mit anderen Systemen und Diensten verbunden sind und über drahtgebundene oder drahtlose Kommunikationsprotokolle kommunizieren können.

Die Produkte werden auf der Grundlage von vier Bewertungsebenen bewertet: Medizinprodukte der Stufe 1 müssen grundlegende Cybersicherheitsanforderungen erfüllen, Systeme der Stufe 4 müssen über erhöhte Cybersicherheitsanforderungen verfügen und außerdem eine unabhängige Software-Binäranalyse und Sicherheitsbewertung von Drittanbietern bestehen.

Auch: Diese medizinischen IoT-Geräte bergen die größten Sicherheitsrisiken

Der Markteinführung folgt eine neunmonatige Sandbox-Phase, die im Juli 2024 endete und in der 47 Apps von 19 teilnehmenden Medizingeräteherstellern ihre Produkte getestet haben. Dazu gehören In-vitro-Diagnoseanalysatoren, Software-Binäranalyse, Penetrationstests und Sicherheitsbewertung.

Die in der Sandbox-Phase gesammelten Eingaben werden zur Verfeinerung betrieblicher Prozesse und Systemanforderungen verwendet, einschließlich der Schaffung weiterer Klarheit über den Implementierungsprozess und die Bewertungsmethodik.

Außerdem: Stellen Sie eine medizinische Frage über MyChart? Ihr Arzt lässt möglicherweise die KI reagieren

Das Kennzeichnungsprogramm ist freiwillig, die CSA fordert jedoch die Notwendigkeit, „proaktive Maßnahmen“ zum Schutz vor zunehmenden Cyberrisiken zu ergreifen, insbesondere da medizinische Geräte zunehmend mit Krankenhaus- und Heimnetzwerken verbunden sind.

Medizinische Geräte in Singapur müssen derzeit HSA-registriert sein und den gesetzlichen Anforderungen, einschließlich Cybersicherheit, entsprechen, bevor sie importiert und im Land verfügbar gemacht werden können.

Zusätzlich: KI beseitigt die Ermüdung des Therapeuten. Hier erfahren Sie, wie es die psychische Gesundheit verändert

In einer separaten Ankündigung teilte CSA mit, dass das Cybersicherheitskennzeichnungssystem für Verbrauchergeräte nun in Kraft sei in Südkorea anerkannt.

Das bilaterale Abkommen wurde diese Woche am Rande der Konferenz Singapore International Cyber ​​​​Week 2024 mit der Korea Internet & Security Agency (KISA) und dem deutschen Bundesamt für Sicherheit in der Informationstechnik (BSI) unterzeichnet.

Das südkoreanische Abkommen soll am 1. Januar nächsten Jahres in Kraft treten und sieht die gegenseitige Anerkennung der KISA IoT Cybersecurity Certification und des Singapore Cybersecurity Label in beiden Ländern vor. Dies ist das erste Mal, dass der asiatisch-pazifische Markt Teil des Abkommens ist, das Singapur auch mit Finnland und Deutschland unterzeichnet hat.

Darüber hinaus: Die Verknüpfung generativer KI mit medizinischen Daten erhöht ihren Nutzen für Ärzte

Das südkoreanische Zertifizierungssystem umfasst drei Stufen – Mild, Basic und Standard – wobei auf allen Stufen unabhängige Labortests erforderlich sind. Bei Geräten mit der Stufe „Basic“ wird davon ausgegangen, dass sie die Anforderungen der Stufe 3 des Singapur-Kennzeichnungssystems erfüllen, das über vier Bewertungsstufen verfügt. KISA wird Singapurs Level-3-Produkte auch als Produkte anerkennen, die die Basic-Level-Zertifizierung erfüllen.

Das Label wird auf intelligenten Verbrauchergeräten angebracht, darunter Hausautomation, Alarmsysteme und IoT-Gateways.

Source link