Home Uncategorized Instagram führt standardmäßige Kindersicherung für unter 16-Jährige ein – wie funktionieren sie?

Instagram führt standardmäßige Kindersicherung für unter 16-Jährige ein – wie funktionieren sie?

5
0
Instagram führt standardmäßige Kindersicherung für unter 16-Jährige ein – wie funktionieren sie?

Es wird eine große Veränderung in der Art und Weise geben, wie Teenager Instagram nutzen (Bild: Instagram)

Jugendliche melden sich an Instagram erhält einen neuen Kontotyp mit Standardmäßig KindersicherungDas gab das Unternehmen bekannt.

Konten von Personen unter 18 Jahren werden automatisch privat sein, mit den strengsten Einstellungen für vertrauliche Inhalte, und sie dürfen nur Nachrichten an Personen senden, mit denen sie bereits verbunden sind.

Sie aktivieren standardmäßig den Schlafmodus, der Benachrichtigungen deaktiviert und jeden Tag zwischen 22:00 und 7:00 Uhr automatisch auf Direktnachrichten antwortet.

Benutzer unter 16 Jahren benötigen die Erlaubnis eines Elternteils, um Standardeinstellungen zu ändern.

Der Schritt erfolgt nach einem enormen Druck, junge Nutzer zu schützen, nachdem es in den sozialen Medien zu einer Reihe von Todesfällen gekommen ist.

Der Aktivist Ian Russell, dessen Tochter Molly im Alter von 14 Jahren durch Selbstmord starb, sagte, er glaube nicht, dass die heutige Nachricht gerechtfertigt sei. Jeder Schritt in Richtung digitaler Sicherheit sei „willkommen“, sagte er, aber es gebe immer noch relativ einfache Möglichkeiten, diese zu überwinden.

Jugendliche unter 16 Jahren sehen diese Einstellung auf Instagram

Jugendliche unter 16 Jahren sehen diese Einstellung (Bild: Meta)
Eltern haben mehr Möglichkeiten, die Nutzung von Instagram durch ihre Kinder zu überwachen (Bild: Meta)

„Eine wirksame Altersgarantie wird benötigt, um zu verhindern, dass ‚Alterslügner‘ das System austricksen“, sagte er. „Letzte Woche sagte Nick Clegg, die Kindersicherung habe sich als unwirksam erwiesen, weil so wenige sie nutzten. Dieses neue IG-Teenager-Konto sei stark auf die Einbindung der Eltern angewiesen.

„Heutzutage berichten Eltern, dass sie von Gleichaltrigen ihrer Kinder unter Druck gesetzt werden, was oft der Grund dafür ist, dass sie ihren Kindern Smartphones geben, obwohl sie es lieber nicht tun würden. Ähnlicher übertragener Gruppenzwang wird auf neue Sicherheitseinstellungen für 13- bis 15-Jährige angewendet und ist zum Standard geworden. Eltern werden wahrscheinlich das Bedürfnis verspüren, solche Maßnahmen zu deaktivieren, wenn dies bei Teenagern die Norm ist.“

Im Rahmen des neuen großen Sicherheitsupdates werden auch die Kontointeraktionen von Teenagern eingeschränkt, sodass nur Personen, denen sie folgen, sie markieren oder erwähnen können. Außerdem erhalten sie eine Benachrichtigung, in der sie aufgefordert werden, die App nach einer Stunde täglicher Nutzung zu verlassen.

Eltern haben außerdem die Möglichkeit zu sehen, wem ihr Teenager in den letzten sieben Tagen Nachrichten gesendet hat (jedoch nicht die Nachrichten selbst), tägliche Zeitlimits für die Nutzung der Instagram-App festzulegen, die App-Nutzung für bestimmte Zeiträume zu blockieren und alle Themen anzuzeigen, die ihre Kinder betreffen gesehen haben.

Kindern unter 13 Jahren ist es bereits verboten, auf Instagram einen eigenen Account zu haben, und bei allen Accounts für jüngere Nutzer muss klar erkennbar sein, dass sie von einem Erwachsenen verwaltet werden.

Benutzer werden gebeten, ihr Alter zu bestätigen, indem sie einen Ausweis hochladen, eine Garantie von einer anderen Person einholen oder ein Selfie-Video aufnehmen.

Wann kommt es zur Veränderung?

Neue jugendliche Benutzer unter 18 Jahren, die sich ab heute anmelden, werden einem Teenager-Konto zugewiesen, sagte Meta.

Bestehende Benutzer werden nächste Woche mit der Migration auf das neue System beginnen. Es ist geplant, Teenager in Großbritannien, den USA, Kanada und Australien innerhalb von zwei Monaten in die neuen Konten einzubinden, diejenigen in der Europäischen Union später in diesem Jahr.

Jugendliche über 18 Jahre sind nicht betroffen.

Diese Ankündigung erfolgt, da Social-Media-Plattformen weiterhin unter regulatorischem Druck stehen Schützen Sie Benutzer, insbesondere Kinder, besser vor schädlichen Online-Inhalten – mit dem Online Safety Act, der Unternehmen verpflichtet, Kinder vor solchen Inhalten zu schützen, der im nächsten Jahr im Vereinigten Königreich vollständig in Kraft treten wird.



Warum ist eine Online-Kontrolle erforderlich?

Es gab mehrere Fälle, in denen Kinder starben, nachdem sie online schädlichen Inhalten ausgesetzt waren, was zu weit verbreiteten Kampagnen für einen besseren Schutz führte. Unter anderem sind:

Molly Russell, 14 Jahre alt

Molly Russell, die 2017 starb, nachdem sie schädliche Online-Inhalte angesehen hatte

Molly Russell, die 2017 starb, nachdem sie sich schädliche Online-Inhalte angesehen hatte (Bild: PA)

Molly beging im November 2017 Selbstmord, als sie 14 Jahre alt war nach dem Ansehen von Suizid- und anderen schädlichen Inhalten auf Instagram und Pinterest.

Ein Gerichtsmediziner kam zu dem Schluss, dass die Schülerin aus Harrow im Nordwesten Londons an „Selbstverletzung, während sie an Depressionen und den negativen Auswirkungen von Online-Inhalten litt“ starb.

In einer Anhörung, bei der die Technologiegiganten im Rampenlicht standen, sagte Andrew Walker, dass das Material, das er im Vorfeld seines Todes konsumierte, „für Kinder nicht sichtbar sein sollte“.

Tommie-Lee Gracie Billington, 11 Jahre alt

Tommie Lee Gracie Billington als Hauptfigur

Tommie-Lee Gracie Billington starb, als sie an einer Social-Media-Challenge teilnahm

Der Junge verlor daraufhin das Bewusstsein „Inhalierte eine giftige Substanz“, als er am 2. März im Haus eines Freundes wohnte, bevor er später im Krankenhaus verstarb.

Es wird angenommen, dass ihr Tod mit einem Social-Media-Trend namens „Chroming“ zusammenhängt, bei dem giftige Chemikalien wie Farbe, Lösungsmittel, Aerosole, Reinigungsmittel oder Benzin eingeatmet werden.

Seine Großmutter Tina machte TikTok für seinen Tod verantwortlich und sagte: „Wir wollen nicht, dass andere Kinder TikTok folgen oder soziale Medien nutzen.“ Stattdessen wollen wir, dass TikTok entfernt wird und Kindern unter 16 Jahren die Nutzung sozialer Medien verboten wird.“

Isaac Kenevan, 13 Jahre alt

Isaac Kenevan

Isaac, 13, starb angeblich, als er an einer Online-Challenge teilnahm (Bild: Lisa Kenevan)

Der Schüler soll angeblich gestorben sein, nachdem er an einer „Erstickungs-Challenge“ teilgenommen hatte, die er in den sozialen Medien gesehen hatte.

Seine Mutter Lisa hat darüber gesprochen, wie die Neugier ihres Sohnes ihn anfällig für schädliche Online-Inhalte macht.

Was sagt Meta dazu?

Der frühere stellvertretende Premierminister Sir Nick Clegg, jetzt Präsident für globale Angelegenheiten bei Meta, sagte, das Ziel der Änderung bestehe darin, „das Gleichgewicht zugunsten der Eltern zu verschieben“, was den Einsatz der Kindersicherung angeht, und hoffte gleichzeitig, dass sie „als …“ fungieren würde Katalysator für eine breitere Debatte über die Verbesserung von Online-Sicherheitstools.

Er sagte, die neuen Einstellungen „können dazu führen, dass einige Teenager unsere App seltener nutzen“, sagte aber, dass es sich um eine notwendige Änderung handele.

Sir Nick fügte hinzu, dass eine „umfassendere Debatte auf Ökosystemebene“ über Tools zur Altersüberprüfung erforderlich sei, die über mehrere Apps hinweg funktionieren und nicht von jeder einzelnen Plattform implementiert werden müssten.

Er sagte: „Es gibt keine Welt, in der eine anwendungsspezifische Lösung ausreicht.“

Stattdessen schlägt er vor, dass es „eine Altersüberprüfung auf App-Store-Ebene geben sollte, was nicht sehr hilfreich ist, da iOS (Apple) und Android (Google) bereits alle diese Daten sammeln“.

Ian Russell fuhr fort: „Wie immer sind alle Schritte zur digitalen Sicherheit willkommen, aber ihre Wirksamkeit kann nur beurteilt werden, wenn es Beweise dafür gibt, dass sie den Online-Schaden reduziert haben und Kinder weiter von ihnen ferngehalten werden.“ Es wird einige Zeit dauern, bis Plattformen und Zivilgesellschaft die Wirksamkeit der neuen Maßnahmen beurteilen können.

„Die Plattform muss auch bereit sein, Maßnahmen zu ändern, um Lücken zu schließen und sie so effektiv wie möglich voranzutreiben. Auch die ständigen iterativen Verbesserungen, die erforderlich sind, damit neue Schritte funktionieren, müssen von der IG gemeldet werden. Transparenz ist wie immer notwendig, damit die Zivilgesellschaft die Wirksamkeit beurteilen kann.“

Kontaktieren Sie unser Nachrichtenteam per E-Mail unter webnews@metro.co.uk.

Für weitere Geschichten wie diese, Schauen Sie sich unsere News-Seite an.

MEHR: Supernanny Jo Frost teilt die Warnzeichen mit, dass Ihr Kind „Ansprüche“ bekommt

MEHR: Ich habe keinen einzigen Tag Mutterschaftsurlaub genommen – Mütter können wirklich alles haben

MEHR: Ich kann nicht vergessen, was ich am Schultor gesehen habe



Source link