Home Uncategorized Gibt es „schwules Gesicht“ wirklich? Experten geben brillante Antworten auf Pseudowissenschaften

Gibt es „schwules Gesicht“ wirklich? Experten geben brillante Antworten auf Pseudowissenschaften

1
0
Gibt es „schwules Gesicht“ wirklich? Experten geben brillante Antworten auf Pseudowissenschaften

Kann man anhand seines Gesichts erkennen, ob jemand schwul ist? (Bild: ASAPScience)

Welche heißen ‘„Gay Face“ tauchte diese Woche erneut in den Medien auf, nachdem ein Video, das seine Existenz behauptete, viral ging.

Die YouTube-Wissenschaftsgurus Mitch Moffit und Greg Brown zitierten kontroverse Untersuchungen, die ergaben, dass schwule Menschen andere körperliche Merkmale haben als ihre heterosexuellen Kollegen.

Ihre Behauptung, dass KI darauf trainiert werden könne, die Sexualität einer Person zu erkennen, wurde in einem Zeitungsbericht enthüllt – Experten auf diesem Gebiet sagen jedoch, dass sie ernsthafte Zweifel an der Richtigkeit der Behauptung haben.

Dominic Lees, ein auf KI spezialisierter Professor an der University of Reading, sagte, Moffit und Brown hätten keine Originalforschung durchgeführt, sondern lediglich frühere Forschungsergebnisse überprüft.

Er erzählte Metro: „Die Studien wurden offensichtlich nicht von Experten begutachtet.“ Eine wissenschaftliche Überprüfung der Arbeit ergab, dass jedes gezeigte Bild das Gesicht einer weißen Person zeigte, obwohl in dem Bericht behauptet wurde, dass darin universelle Beobachtungen über „schwule Gesichter“ gemacht würden.

„Allein in dieser Frage ist der Bericht nicht glaubwürdig.“ Die Physiognomie ist je nach ethnischer Zugehörigkeit sehr unterschiedlich und schließt daher jeglichen Versuch aus, Verallgemeinerungen über die Sexualität anzustellen.“

Nehmen Sie es aus einem YouTube-Video

Kleine Unterschiede in kleinen Gesichtszügen könnten darauf hindeuten, dass jemand schwul ist, sagen sie (Bild: ASAPScience)

Im Video bei ihnen Auf dem YouTube-Kanal „AsapSCIENCE“ sagten Moffit und Brown, frühere Untersuchungen hätten ergeben, dass schwule Männer kürzere Nasen und größere Stirnen hätten, während Lesben „nach oben gerichtete Nasen und kleinere Stirnen“ hätten.

Sie nennen dieses Phänomen „Gay Face“ – eine Theorie, die besagt, dass Homosexuelle bestimmte Gesichtszüge gemeinsam haben.

Doch die Forschung, die sie hervorheben, wurde in der Vergangenheit kritisiert und von Kritikern als „gefährlich“ und „Junk-Wissenschaft“ bezeichnet.

sagte Cybersicherheitsexperte James Bore Metro dass Forschung wie diese verschiedene ethische und Genauigkeitsprobleme aufwirft, einschließlich der Möglichkeit einer Voreingenommenheit in der KI.

Herr Bore sagte: „Wir wissen nicht, welche Daten sie eingegeben oder verwendet haben, wie sie das Modell trainiert haben oder welche Annahmen sie angewendet haben.“ Wir wissen nicht, wie sie die Daten ausgewählt haben oder ob sie sie angemessen ausgewählt haben.

„Diese Informationen sollten in den eigentlichen Veröffentlichungsdetails enthalten sein, werden aber oft nicht oder oft ignoriert.“

„Es gibt die Ansicht, dass KI unfehlbar ist, und wenn man nur sagt: „Wir haben ein KI-Modell verwendet“, bedeutet das, dass das vollkommen richtig ist, obwohl wir in Wirklichkeit immer wieder gesehen haben, dass Modelle nicht nur menschliche Vorurteile tragen, sondern diese auch in einer maßgeblichen Form aufrechterhalten.“ Weg .

„Das ist Junk-Wissenschaft, das ist Aberglaube, und wir haben nicht die Daten, um zu sagen, ob es damit zusammenhängt oder nicht.“

Und selbst wenn KI nicht im Spiel ist, gibt es immer noch Fragen zur Ethik.

Herr Bore erklärte: „Es gibt Probleme im Zusammenhang mit Vorurteilen, beim Ausschließen von Menschen, die nicht ausgeschlossen werden wollen, oder beim Identifizieren von Menschen, die vielleicht aus irgendeinem Grund nicht als Teil einer bestimmten Gruppe identifiziert werden wollen.“

Umstrittene Geschichte

Forscher haben bereits versucht herauszufinden, ob sich die Sexualität einer Person anhand ihres Gesichts erkennen lässt – und ernteten dafür viel Kritik.

Im Jahr 2017 wurde ein KI-Modell der Stanford University kritisiert, das Fotos aus Dating-Apps nutzte, um anhand der Gesichtszüge und sexuellen Vorlieben in der App zu unterscheiden, ob jemand schwul oder heterosexuell war.

Die Forscher hinter dem Stanford-Modell bezeichneten die Kritik an ihrem Modell später als „reflexartige Reaktion“.

Doch Bore betont die Gefahren, solche Studien für bare Münze zu nehmen.

Er sagte: „In der Vergangenheit wurden Menschen verfolgt und getötet, weil diese Art von Forschung genutzt wurde, um Menschen als Teil einer Gruppe zu identifizieren, und dann wurden sie eingesperrt, getötet und aus einem Land ausgewiesen.“

„Aber wir reagieren aus gutem Grund reflexartig, und jeder, der an dieser Forschung beteiligt ist, muss wirklich über die möglichen Konsequenzen nachdenken und sie berücksichtigen, insbesondere wenn er das Modell veröffentlicht.

„Wir haben Länder, in denen Homosexualität eine Straftat ist.

„Jede Technologie oder Gesichtsstudie, die in diesen Ländern behauptet, die Sexualität einer Person anhand ihres Gesichts identifizieren zu können, wird missbraucht.“

Im Jahr 2023 wurde bekannt, dass das Vereinigte Königreich plant, die Verantwortung für die Regulierung künstlicher Intelligenz (KI) zwischen den Regulierungsbehörden für Menschenrechte, Gesundheit und Sicherheit sowie Wettbewerb aufzuteilen, anstatt ein neues Gremium für die Technologie zu schaffen.

KI, die mit Fortschritten wie der ChatGPT-App rasant voranschreitet, kann die Produktivität steigern und zur Erschließung von Wachstum beitragen.

Es bestehen jedoch Bedenken hinsichtlich der Risiken, die es für die Privatsphäre, die Menschenrechte oder die öffentliche Sicherheit mit sich bringen könnte, sagte die Regierung.

Mit dem Ziel, ein Gleichgewicht zwischen Regulierung und Innovation herzustellen, plant die Regierung, bestehende Regulierungsbehörden sektorübergreifend zu nutzen, anstatt die Zuständigkeiten für die KI-Governance an eine neue einzige Regulierungsbehörde zu übergeben.

Darin heißt es, dass die bestehende Regulierungsbehörde in den nächsten 12 Monaten praktische Leitlinien für Organisationen sowie andere Tools und Ressourcen wie Vorlagen zur Risikobewertung veröffentlichen wird.

Kontaktieren Sie unser Nachrichtenteam, indem Sie uns eine E-Mail an webnews@metro.co.uk senden.

Für weitere Geschichten wie diese, Schauen Sie sich unsere News-Seite an.

MEHR: Die Reformen von Nigel Farage filtern die politischen Sendungen von AI – aber sollten sie das auch tun?

MEHR: Werfen Sie zunächst einen Blick in Großbritanniens ersten CO2-negativen Pub, in dem Sie ein Taxi zum halben Preis nach Hause nehmen können

MEHR: Schüler nutzen Datenbrillen, um Fremde zu identifizieren, ohne dass diese es merken



Source link