Home Uncategorized Google und Meta bestreiten Behauptungen, sie würden Details des Attentatsversuchs auf Trump...

Google und Meta bestreiten Behauptungen, sie würden Details des Attentatsversuchs auf Trump verbergen

23
0
Google und Meta bestreiten Behauptungen, sie würden Details des Attentatsversuchs auf Trump verbergen

Trump-Anhänger in X glauben wirklich, dass Big-Tech-Unternehmen Informationen über Donald Trumps Attentat zensieren. Jetzt haben sowohl Google als auch Facebook ausführliche Erklärungen darüber veröffentlicht, was sich hinter den Kulissen ihrer Produkte abspielt, um zu zeigen, dass die jüngsten Ausfälle nicht auf politische Voreingenommenheit zurückzuführen sind. Doch dabei erkennen sie unabsichtlich, wie kaputt das Internet heute ist.

Das New Yorker Zeitungen veröffentlichte am Montag einen Artikel, der zeigen sollte, dass Meta Informationen über Trumps Attentatsversuch am 13. Juli bei einer Kundgebung in Butler, Pennsylvania, zensiert habe. Die Post fragte MetaAI: „Ist Trumps Ermordung fiktiv?“ und erhielt eine Antwort, dass es sich tatsächlich um eine Fiktion handelte. Es gibt natürlich mehrere Probleme mit dem Experiment der Post, wobei das Hauptproblem darin besteht, dass Trump nicht tatsächlich ermordet wurde, sodass seine Worte sowohl für Computer als auch für Menschen verwirrend wären. „Attentat“ wäre in dem Sinne fiktiv, dass Trump nicht getötet wurde. Mord prüfen sehr real.

Doch trotz der Tatsache, dass es sich um eine schlechte Frage handelt, sollte die KI immer noch in der Lage sein, Dinge zu analysieren und keine Fehlinformationen auszuspucken, wie zum Beispiel die Behauptung, dass niemand versucht hat, Trump zu ermorden. Facebook hat mit einem langen Blogbeitrag reagiert, in dem dargelegt wird, was schief gelaufen ist.

„In beiden Fällen haben unsere Systeme funktioniert, um die Bedeutung und Schwere dieser Ereignisse zu schützen“, schrieb Joel Kaplan, Vizepräsident für globale Politik bei Meta. Dienstag„Und obwohl beides nicht das Ergebnis von Voreingenommenheit ist, ist es bedauerlich und wir verstehen, warum es bei den Menschen einen solchen Eindruck hinterlassen könnte. Deshalb arbeiten wir ständig daran, unsere Produkte zu verbessern und werden weiterhin schnell auf alle auftretenden Probleme reagieren.“

Kaplan führt weiter aus, dass dieses Problem auf KI-Chatbots zurückzuführen sei.ist nicht immer zuverlässig, wenn es um die Übermittlung von Nachrichten oder die Übermittlung von Informationen in Echtzeit geht.“

Ehrlich gesagt hätte er dort wahrscheinlich einfach aufhören können, es zu erklären. Generative KI ist nicht gut. Es handelt sich um eine Technologie mit extremen Einschränkungen, einschließlich dem Erfinden von Geschichten und dem Begehen grundlegender Fehler. Im Wesentlichen handelt es sich dabei um eine hochentwickelte automatische Vervollständigung, die nicht in der Lage ist, ernsthafte Überlegungen anzustellen oder Logik anzuwenden, obwohl die KI die meiste Zeit so aussieht und klingt, als würde sie diese Dinge tun. Allerdings kann Kaplan nicht direkt sagen, dass KI ein Abfallprodukt ist. Stattdessen muss er über diese Tatsache sprechen, weil Big-Tech-Unternehmen Milliarden von Dollar in Dinge investieren, die nicht gut funktionieren.

„Einfach ausgedrückt basieren die Antworten, die von den großen Sprachmodellen, die diese Chatbots antreiben, generiert werden, auf den Daten, auf denen sie trainiert wurden, was manchmal zu Problemen führen kann, wenn die KI zu Echtzeitthemen befragt wird, die sich danach schnell weiterentwickeln.“ Sie wurden ausgebildet“, schrieb Kaplan.

In dem Artikel wird weiter erklärt, dass aktuelle Nachrichtensituationen für die KI sehr schwierig sein können, insbesondere wenn es sich um wichtige Nachrichten wie einen Mordversuch handelt, der im Internet mit Verschwörungstheorien überschwemmt wird. Er sagte, wenn ernsthafte Nachrichtenereignisse live auftreten, würden Barrieren errichtet, um die Verbreitung von Fehlinformationen zu verhindern.

„Anstatt zuzulassen, dass die Meta-KI Fehlinformationen über das Attentat liefert, haben wir sie so programmiert, dass sie Fragen dazu nicht im Nachhinein beantwortet – und stattdessen eine allgemeine Antwort darüber gibt, warum sie keine Informationen liefern konnte“, schrieb Kaplan.

Dies ist eine sehr vernünftige Art, mit der Situation umzugehen. Dies wird jedoch rechte Social-Media-Nutzer niemals davon abhalten, davon überzeugt zu sein, dass alles, was ihnen an der Reaktion der KI nicht gefällt, das Ergebnis politischer Voreingenommenheit ist. Meta nennt schlechte Reaktionen „Halluzinationen“, was sicherlich anspruchsvoller klingt als „schlechte Reaktionen von schlechten Produkten“.

Kaplan erklärte auch, was passierte, als einige Benutzer Fotos von getaggten Attentatsversuchen sahen. Als Benutzer Facebook markierte das Bild als manipuliert und warnte die Nutzer, entfernte aber auch einige echte Bilder der Schießerei.

„Angesichts der Ähnlichkeiten zwischen dem manipulierten Foto und dem Originalbild – das sich nur geringfügig unterschied (wenn auch wichtig) – hat unser System diese Faktenprüfung auch fälschlicherweise auf das Originalfoto angewendet. „Unser Team arbeitet daran, diesen Fehler schnell zu beheben“, schrieb Kaplan.

Trump-Anhänger in den sozialen Medien glaubten dieser Erklärung nicht, darunter auch der Generalstaatsanwalt von Missouri, Andrew Bailey. Er machte weiter Fox-Geschäft Mittwoch, um anzudeuten, dass er Meta wegen angeblicher Zensur verklagen könnte.

„In der Big-Tech-Oligarchie gibt es eine Voreingenommenheit“, sagte Bailey. „Sie sind durch Abschnitt 230 des Communications Decency Act geschützt, den sie sowohl als Schwert als auch als Schutzschild verwenden.“

Bailey behauptete weiter, dass Abschnitt 230 es Technologieunternehmen erlaube, „die freie Meinungsäußerung zu zensieren“, und warf ihnen vor, „die amerikanische Kultur auf gefährliche Weise zu verändern“.

Google stellt auch Kommentare zur Verfügung Thread auf X behauptete, es habe Trumps Inhalte zensiert.

„In den letzten Tagen haben mehrere Leute auf X Behauptungen gepostet, dass die Suche bestimmte Begriffe ‚zensiert‘ oder ‚verbietet‘. „Das ist nicht passiert, und wir wollen den Sachverhalt klarstellen“, twitterte der Google Communications-Account Dienstag.

„Der Beitrag steht im Zusammenhang mit unserer Autocomplete-Funktion, die Suchanfragen vorhersagt, um Ihnen Zeit zu sparen. Autocomplete ist lediglich ein Tool, mit dem Sie Ihre Suche schnell abschließen können. Ganz gleich, welche Vorhersagen zu einem bestimmten Zeitpunkt angezeigt werden, Sie können jederzeit nach dem suchen, was Sie möchten, und erhalten einfachen Zugriff auf Ergebnisse, Bilder und mehr.“

Google erklärt, dass den Leuten bewusst sei, dass bei Suchanfragen zu Mordversuchen nicht die Art von automatischen Vervollständigungsantworten angezeigt werden, die ein vollständiges Bild des Geschehens liefern würden. Laut Google liegt die Erklärung darin, dass die Suche mit Barrieren aufgebaut wurde, insbesondere im Zusammenhang mit politischer Gewalt, und das System nun als „veraltet“ bezeichnet wird.

Google stellte außerdem fest, dass bei der Suche nach „Präsident Donald“ nicht wie erwartet Vorschläge zur automatischen Vervollständigung zurückgegeben wurden. Offensichtlich würde jeder erwarten, dass diese beiden Wörter durch „Trump“ ergänzt werden, was in den letzten Tagen nicht der Fall war. Allerdings war es ein weiterer Fall, in dem das Produkt nicht richtig funktionierte, da Google erklärte, dass das Produkt auch „Obama“ nicht vervollständigt, wenn Leute anfangen, „Präsident Barack“ einzugeben.

Andere Leute waren wirklich verärgert, als sie auf der Suche nach Nachrichten über Trump ein Foto von Kamala Harris sahen, aber die einfache Erklärung ist, dass Harris in den Umfragen auf dem Vormarsch ist und ihr Foto angesichts ihrer aktuellen Beliebtheit eher ganz oben in den Nachrichtenartikeln erscheinen wird . Schließlich tritt Trump gegen Harris an und verliert stark, wenn man den jüngsten Umfragen Glauben schenken darf.

„Insgesamt sind diese Arten von Vorhersage- und Kennzeichnungssystemen algorithmischer Natur. „Obwohl unser System die meiste Zeit sehr gut funktioniert, kann es vorkommen, dass Sie auf unerwartete oder unvollständige Vorhersagen stoßen und es zu Fehlern kommt“, schrieb Google. „Viele Plattformen, einschließlich der, die wir jetzt veröffentlichen, werden zu verschiedenen Zeiten seltsame oder unvollständige Vorhersagen anzeigen. Wenn ein Problem auftritt, beheben wir es für uns, damit Sie schnell und einfach finden, wonach Sie suchen. ​​Wir freuen uns über den Input.“

Keine dieser Erklärungen wird die Rechten besänftigen, die glauben, dass alles, was in Big Tech vor sich geht, eine Verschwörung gegen ihren idiotischen Kandidaten Donald Trump ist. Aber diese Reaktionen von Facebook und Google helfen dabei, Aufschluss darüber zu geben, was sich hinter den Kulissen dieser großen Unternehmen abspielt. Ihre Produkte funktionieren nicht immer wie beabsichtigt und Vorwürfe politischer Voreingenommenheit sind in den meisten Fällen falsch.



Source link