Home Uncategorized Betrüger nutzen KI, um Kinderstimmen zu imitieren und ahnungslosen Eltern Millionen Pfund...

Betrüger nutzen KI, um Kinderstimmen zu imitieren und ahnungslosen Eltern Millionen Pfund zu stehlen

2
0
Betrüger nutzen KI, um Kinderstimmen zu imitieren und ahnungslosen Eltern Millionen Pfund zu stehlen

Betrüger verwenden KI, um Kinderstimmen in einem neuen Telefonbetrug mit Geldeinzahlung zu imitieren, der sich mit gefälschten Hilferufen an ältere Menschen richtet.

Minister fordern nun Familien auf, „Passwörter“ oder geheime Sätze zu entwickeln, die in schwierigen Zeiten verwendet werden können, damit sie sich nicht durch Telefonanrufe täuschen lassen und ihr Geld verlieren.

Quellen des Innenministeriums sagen, dass es nur drei Sekunden Sprache aus einem Video auf TikTok, Instagram oder einer anderen Social-Media-Seite braucht, um eine Nachahmung der Stimme einer Person zu erzeugen.

Dieser KI-Betrug ist die neueste Inkarnation des „Hi Mum“-Betrugs, mit dem in den letzten Jahren in Großbritannien ahnungslosen Eltern Millionen Pfund gestohlen wurden.

Bei der Betrugsmasche erhalten Eltern in der Regel eine WhatsApp-Nachricht von jemandem, der sich als ihr Kind in Not ausgibt und ihnen mitteilt, dass sie ihr Telefon verloren haben und dringend Geld benötigen, um ein Taxi nach Hause zu bekommen.

Justine Roberts, Gründerin des Mumsnet-Internetforums (im Bild), sagte: „Hi-Mutter-Betrügereien, bei denen Betrüger vorgeben, Kinder zu sein, die Hilfe brauchen, sollen die Gefühle der Eltern ausnutzen.“

In einem Gespräch mit The Mail am Sonntag forderte Betrugsminister Lord Hanson die Eltern auf, „sicheren Phrasen“ zuzustimmen, die ihre Kinder immer verwenden können (Archivbild)

In einem Gespräch mit The Mail am Sonntag forderte Betrugsminister Lord Hanson die Eltern auf, „sicheren Phrasen“ zuzustimmen, die ihre Kinder immer verwenden können (Archivbild)

Dank der KI-Technologie hinterlassen Betrüger – oft mit Sitz im Ausland – jetzt aufgezeichnete Nachrichten oder tätigen Anrufe, die die Stimme eines Kindes perfekt imitieren. Dies bedeutet, dass Eltern einen Anruf erhalten und die Stimme ihres Kindes hören können, die ihnen mitteilt, dass sie in Gefahr sind und einen Notfall haben. es kostet Geld – und durch den Einsatz von KI können Betrüger wechselseitige Chats mit den Eltern führen.

Ihr „Hilferuf“ könnte darin bestehen, dass ihre Bankkarten und Telefone „gestohlen“ werden und sie bei einem Freund zurückbleiben, der das Geld für sie abheben kann, wenn das Geld sofort auf das Konto eines Dritten überwiesen wird.

Oder sie müssen beispielsweise einen Hausbesitzer oder jemanden, mit dem sie ein Problem haben, sofort bezahlen und drohen ihm, das Geld zu bekommen.

In einem Gespräch mit „The Mail on Sunday“ forderte Betrugsminister Lord Hanson die Eltern auf, sich auf eine „sichere Formulierung“ zu einigen, die ihre Kinder immer verwenden können, wenn sie um Hilfe rufen, damit Eltern wissen, dass die Botschaft echt ist. Er sagte: „KI bietet unglaubliche Chancen für unsere Gesellschaft, aber wir müssen auch vor den Gefahren wachsam bleiben.“

„Wir freuen uns, diese Initiative durch Stop! zu unterstützen.“ Denken Sie über die Betrugskampagne nach und stellen Sie sicher, dass die Menschen praktische Ratschläge erhalten, wie sie diese Art von Betrug verhindern können.“

Eine Quelle aus dem Umfeld von Innenministerin Yvette Cooper fügte hinzu: „Stellen Sie sich die Risiken vor, wenn diese Technologie es Betrügern ermöglicht, die Gesichter und Stimmen der Personen, die sie imitieren, zu stehlen und Videogespräche mit den beabsichtigten Opfern zu führen.“

„Es besteht eindeutig eine Herausforderung für Regierungen, die Bedrohung zu kontrollieren, aber es zeigt auch, warum viele Familien auch Dinge wie ‚sichere Meinungsäußerung‘ brauchen, um sich selbst zu schützen.“

Im Jahr bis März wurden dem Crime Survey für England und Wales 3,2 Millionen Betrugsfälle von Haushalten gemeldet.

Betrüger „fälschen“ häufig Banknummern, um das Vertrauen der Opfer zu gewinnen, bevor sie sie davon überzeugen, dass ihr Konto das Ziel betrügerischer Aktivitäten war (Archivbild)

Betrüger „fälschen“ häufig Banknummern, um das Vertrauen der Opfer zu gewinnen, bevor sie sie davon überzeugen, dass ihr Konto das Ziel betrügerischer Aktivitäten war (Archivbild)

Quellen des Innenministeriums sagen, dass bereits drei Sekunden Sprache aus einem Video auf TikTok, Instagram oder anderen Social-Media-Seiten genügen, um die Stimme einer Person nachzuahmen.

Quellen des Innenministeriums sagen, dass bereits drei Sekunden Sprache aus einem Video auf TikTok, Instagram oder einer anderen Social-Media-Seite genügen, um die Stimme einer Person nachzuahmen.

Im gleichen Zeitraum gab UK Finance – der Dachverband der britischen Banken – an, dass seine Mitglieder 554.293 Finanzbetrugsfälle gemeldet hätten, darunter „Hi Mum“-Betrügereien, ein Anstieg von 20 Prozent im Vergleich zum Vorjahr, als die Gesamtzahl 460.537 erreichte.

Justine Roberts, Gründerin des Internetforums Mumsnet, sagte: „Hi-Mutter-Betrügereien, bei denen Betrüger vorgeben, Kinder zu sein, die Hilfe brauchen, zielen darauf ab, die Gefühle der Eltern auszunutzen.“ Wenn Sie glauben, dass Ihr Sohn oder Ihre Tochter in Schwierigkeiten steckt, möchten Sie natürlich schnell handeln, und viele Eltern, die sich normalerweise für ziemlich betrügerisch halten würden, wurden durch angstauslösende Textnachrichten, die angeblich von ihrem Kind stammten, ertappt.

„Der Einsatz von KI-Technologie zur Nachahmung von Stimmen wird es noch schwieriger machen, Betrüger zu erkennen.“

„Eltern auf Mumsnet haben vorgeschlagen, Passwörter oder Fragen zu vereinbaren, die in diesem Szenario verwendet werden sollen, daher ist es großartig zu sehen, dass die Regierung diese Aktion fördert.“

„Wenn Sie sich die Zeit nehmen, sich mit Ihren Kindern zusammenzusetzen und darüber zu sprechen, wie Sie in einem Notfall vorgehen würden, verringert sich die Wahrscheinlichkeit, dass Sie entdeckt werden, und klare Passwörter sind eine einfache Möglichkeit, sich und Ihre Familie zu schützen.“ ‘

Ein Sprecher des Innenministeriums sagte: „Künstliche Intelligenz hat begonnen, die Art und Weise zu verändern, wie Betrug an Opfern begangen wird und wie vertrauenswürdig er sein kann.“

„Die neue Betrugsstrategie der Regierung wird der Bedrohung durch KI-gestützten Betrug Priorität einräumen. „Es ist wichtig, dass wir im Umgang mit diesen Risiken die Führung übernehmen, sonst werden noch viel mehr unschuldige Menschen Opfer von Betrügern.“

Source link