Eine App namens ReportIn wird diesen Herbst starten
Konten artikel
OTTAWA – Die Canada Border Services Agency plant die Einführung einer App, die Gesichtserkennungstechnologie nutzt, um Personen zu verfolgen, deren Abschiebung aus dem Land angeordnet wurde.
Werbung 2
Konten artikel
Mobile Reporting-Apps verwenden biometrische Daten, um die Identität einer Person zu bestätigen und ihre Standortdaten aufzuzeichnen, wenn sie die App zum Einchecken verwendet. Durch den Zugang zu Informationen erhaltene Dokumente zeigen, dass die CBSA seit 2021 einen solchen Antrag vorschlägt.
Ein Sprecher bestätigte, dass im Herbst eine App namens ReportIn auf den Markt kommen wird.
Experten äußerten eine Reihe von Bedenken und stellten die Gültigkeit der Benutzereinwilligung und die potenzielle Geheimhaltung der Art und Weise, wie die Technologie ihre Entscheidungen trifft, in Frage.
Jedes Jahr erscheinen etwa 2.000 Personen, die das Land verlassen sollen, nicht, was bedeutet, dass die CBSA „erhebliche Ressourcen aufwenden muss, um diese Klienten zu untersuchen, zu lokalisieren und in einigen Fällen festzunehmen“, heißt es in einem Dokument aus dem Jahr 2021.
Werbung 3
Konten artikel
Als „ideale Lösung“ schlug die Agentur Smartphone-Apps vor.
Regelmäßige Aktualisierungen über die App über die „Wohnadresse, Beschäftigung, Familienstand und andere Dinge“ einer Person ermöglichen es der CBSA, über relevante Informationen zu verfügen, die zur Kontaktaufnahme und Überwachung von Kunden auf Frühindikatoren der Nichteinhaltung verwendet werden können“, sagte er sagte.
„Außerdem werden sich Kunden durch die Automatisierung wahrscheinlich eingebunden fühlen und erkennen, wie viel Transparenz die CBSA in ihren Fällen hat.“
Darüber hinaus heißt es in dem Dokument: „Wenn ein Klient nicht zur Abschiebung erscheint, liefern die über die App gesammelten Informationen gute Ermittlungshinweise zur Lokalisierung des Klienten.“
Eine algorithmische Folgenabschätzung für das Projekt – die nicht auf der Website der Bundesregierung veröffentlicht wurde – besagt, dass die biometrische Sprachtechnologie, die CBSA zu verwenden versucht, aufgrund „fehlgeschlagener Technologie“ auslaufen wird und das Unternehmen die ReportIn-App entwickelt ersetzen Sie es.
Konten artikel
Werbung 4
Konten artikel
Darin heißt es, dass „die Gesichtsbiometrie und der Standort einer Person, die von Sensoren und/oder GPS auf einem Mobilgerät/Smartphone bereitgestellt werden“, über die ReportIn-App aufgezeichnet und dann an das CBSA-Backend-System gesendet werden.
Nachdem Personen Fotos eingereicht haben, generiert ein „Gesichtsvergleichsalgorithmus“ einen Ähnlichkeitswert mit dem Referenzfoto.
Wenn das System keine Gesichtsübereinstimmung bestätigt, wird ein Verfahren eingeleitet, bei dem die Beamten den Fall untersuchen.
„Außerdem werden die Standorte von Einzelpersonen jedes Mal erfasst, wenn sie sich melden, und wenn die Person ihren Bedingungen nicht nachkommt“, sagte er. Das Dokument stellt fest, dass Einzelpersonen nicht „kontinuierlich verfolgt“ werden.
Diese Anwendung nutzt Technologie von Amazon Web Services. Es war diese Wahl, die die Aufmerksamkeit von Brenda McPhail erregte, Direktorin für Executive Education im Programm „Public Policy in Digital Society“ an der McMaster University.
Werbung 5
Konten artikel
Er sagte, während viele Gesichtserkennungsunternehmen ihre Algorithmen zum Testen beim US-amerikanischen National Institute of Standards and Technology einreichen, habe Amazon dies noch nie freiwillig getan.
Ein Sprecher von Amazon Web Services sagte, die Amazon Rekognition-Technologie sei „ausgiebig getestet worden – unter anderem von Dritten wie Credo AI, einem auf verantwortungsvolle KI spezialisierten Unternehmen, und iBeta Quality Assurance“.
Der Sprecher fügte hinzu, dass Amazon Rekognition ein „groß angelegtes cloudbasiertes System ist und daher nicht wie in den NIST-Teilnahmerichtlinien beschrieben heruntergeladen werden kann“.
„Aus diesem Grund wurde unser Rekognition Face Liveness stattdessen zum Testen anhand von Industriestandards an das iBeta Lab übermittelt“, das von der Agentur als unabhängiges Testlabor akkreditiert ist, sagte der Sprecher.
Werbung 6
Konten artikel
Im CBSA-Dokument heißt es, dass der verwendete Algorithmus ein Geschäftsgeheimnis sei. In Situationen, die Leben verändern können, fragt McPhail, ob „es angemessen ist, Werkzeuge zu verwenden, die durch Geschäftsgeheimnisse oder Eigentumsgeheimnisse geschützt sind und den Menschen das Recht verweigern, zu verstehen, wie Entscheidungen über sie tatsächlich getroffen werden.“
Kristen Thomasen, außerordentliche Professorin und Lehrstuhlinhaberin für Recht, Robotik und Gesellschaft an der University of Windsor, sagte, der Verweis auf Geschäftsgeheimnisse sei ein Signal dafür, dass möglicherweise rechtliche Hindernisse bestehen, die Informationen über das System blockieren.
Es gebe seit Jahren Bedenken, dass Personen, bei denen Fehler im System auftreten, aufgrund des Schutzes des geistigen Eigentums gesetzlich daran gehindert werden, weitere Informationen zu erhalten, erklärte er.
Werbung 7
Konten artikel
CBSA-Sprecherin Maria Ladouceur sagte, die Agentur habe „diese Smartphone-Anwendung entwickelt, um ausländischen Staatsangehörigen und Personen mit ständigem Wohnsitz, die den Bestimmungen der Einwanderungsgesetzgebung unterliegen, die Möglichkeit zu geben, sich zu melden, ohne persönlich zu einem CBSA-Büro kommen zu müssen.“
Er sagte, die Agentur arbeite bei der App „eng“ mit dem Büro des Datenschutzbeauftragten zusammen. „Die Registrierung bei ReportIn ist freiwillig und Benutzer müssen der Nutzung der App und der Verwendung ihrer Bilder zur Überprüfung ihrer Identität zustimmen.“
Petra Molnar, stellvertretende Direktorin des Flüchtlingsrechtslabors der York University, sagte, es bestehe ein Machtungleichgewicht zwischen den Institutionen, die die Apps implementieren, und den Gemeinden, die sie erhalten.
„Kann jemand in dieser Situation, in der es so große Machtunterschiede gibt, wirklich zustimmen?“
Werbung 8
Konten artikel
Wenn jemand einer Teilnahme nicht zustimmt, kann er dies alternativ direkt melden, sagte Ladouceur.
Thomasen warnte außerdem davor, dass die Gefahr von Fehlern in der Gesichtserkennungstechnologie bestehe und dass das Risiko für Personen bestimmter Rassen und Menschen mit dunkler Hautfarbe höher sei.
Molnar sagte, es sei „sehr beunruhigend, dass es in diesen Dokumenten im Wesentlichen keine Diskussion über … Auswirkungen auf die Menschenrechte gibt.“
Ein CBSA-Sprecher sagte, Credo AI habe die Software auf Voreingenommenheit gegenüber demografischen Gruppen überprüft und eine Gesichtsübereinstimmungsrate von 99,9 Prozent bei sechs verschiedenen demografischen Gruppen festgestellt. Er fügte hinzu, dass die App „nach dem Start weiterhin getestet wird, um Genauigkeit und Leistung zu bewerten“.
Die endgültige Entscheidung wird von Menschen getroffen, wobei alle Anträge von Beamten überwacht werden. Experten weisen jedoch darauf hin, dass Menschen den Urteilen der Technologie weniger vertrauen.
Thomasen sagte, es gebe eine „ziemlich bekannte psychologische Tendenz … bei Menschen, sich auf das Fachwissen von Computersystemen zu verlassen“, bei der Computersysteme als weniger voreingenommen oder genauer wahrgenommen würden.
Konten artikel