Home Uncategorized OpenAI wurde diese Woche von zwei großen Sicherheitsproblemen heimgesucht

OpenAI wurde diese Woche von zwei großen Sicherheitsproblemen heimgesucht

30
0
OpenAI wurde diese Woche von zwei großen Sicherheitsproblemen heimgesucht

OpenAI scheint jeden Tag Schlagzeilen zu machen, und dieses Mal liegt es an mehreren Sicherheitsproblemen. Die erste Ausgabe konzentriert sich auf die Mac-App für ChatGPT, während die zweite auf ein umfassenderes Problem im Umgang des Unternehmens mit seiner Cybersicherheit hinweist.

Anfang dieser Woche sagte Swift-Ingenieur und Entwickler Pedro José Pereira Vieito Die Mac-Anwendung ChatGPT hat herausgefunden, dass die Anwendung Benutzerkonversationen lokal im Klartext speichert, anstatt sie zu verschlüsseln. Die App ist nur auf der OpenAI-Website verfügbar. Da sie nicht im App Store verfügbar ist, muss sie nicht den Sandboxing-Anforderungen von Apple entsprechen. Vieitos Arbeit wurde später von abgedeckt Nachdem der Exploit Aufmerksamkeit erregt hatte, veröffentlichte OpenAI ein Update, das lokal gespeicherte Chats verschlüsselte.

Für diejenigen, die keine Entwickler sind: Sandboxing ist eine Sicherheitsmaßnahme, die verhindert, dass sich potenzielle Schwachstellen und Fehler von einer Anwendung auf eine andere auf einem Computer ausbreiten. Und für diejenigen, die keine Sicherheitsexperten sind, bedeutet die Speicherung lokaler Dateien im Klartext, dass potenziell sensible Daten leicht von anderen Anwendungen oder Malware eingesehen werden können.

Das zweite Problem trat im Jahr 2023 auf, mit Folgen, die bis heute anhalten. Im vergangenen Frühjahr gelang es einem Hacker, Informationen über OpenAI zu erhalten, nachdem er illegal auf das interne Nachrichtensystem des Unternehmens zugegriffen hatte. berichtete, dass der technische Programmmanager von OpenAI, Leopold Aschenbrenner, gegenüber dem Vorstand des Unternehmens Sicherheitsbedenken geäußert habe und argumentiert habe, dass der Hack interne Schwachstellen impliziere, die von ausländischen Gegnern ausgenutzt werden könnten.

Aschenbrenner sagt nun, er sei entlassen worden, weil er Informationen über OpenAI preisgegeben und Bedenken hinsichtlich der Sicherheit des Unternehmens geäußert habe. Ein Vertreter von OpenAI sagte Zeit dass „wir seinem Engagement für den Aufbau sicherer AGI zwar zustimmen, aber vielen seiner Behauptungen über unsere Arbeit nicht zustimmen“ und fügte hinzu, dass sein Weggang nicht auf die Offenlegung von Fehlverhalten zurückzuführen sei.

Anwendungsschwachstellen kommen bei jedem Technologieunternehmen vor. Hacker-Verstöße kommen ebenso häufig vor wie umstrittene Beziehungen zwischen Whistleblowern und ihren ehemaligen Arbeitgebern. Doch angesichts der weiten Verbreitung von ChatGPT in den Diensten und der Art und Weise, wie chaotisch das Unternehmen ist und geworden ist, zeichnen diese jüngsten Probleme allmählich ein besorgniserregenderes Bild davon, ob OpenAI seine Daten verwalten kann.

Quelle

Source link