Forscher des Cybersicherheitsunternehmens McAfee haben gezeigt, dass ein modernes Gesichtserkennungssystem gehackt werden kann, wenn eine andere Person als die Person vor der Kamera betrachtet wird. Zu diesem Zweck verwendeten sie maschinelles Lernen, um ein Bild zu erstellen, das für das menschliche Auge wie eine echte Person aussah, aber vom Gesichtserkennungsalgorithmus als jemand anderes identifiziert wurde. In einem realen Szenario ist dies der Fall, wenn ein System es jemandem ermöglicht, einen Flug zu besteigen, obwohl er auf der Flugliste steht.
„Wenn wir eine Live-Kamera vorstellen, die mithilfe der Gesichtserkennung erkennt und interpretiert, wer sie sucht, und sie mit einem Passfoto vergleicht, können wir diese Art der gezielten Fehlklassifizierung realistisch und wiederholt durchführen. sagt der Hauptautor der Studie, Steve Povolny.
Um den Algorithmus auszutricksen, verwendeten die Forscher einen Bildübersetzungsalgorithmus namens CycleGAN, mit dem Fotos von einem Stil in einen anderen konvertiert werden. Beispielsweise kann ein Foto eines Hafens so aussehen, als wäre es von Monet gemalt worden. Oder ein Bild von Bergen, die im Sommer aufgenommen wurden, erscheint plötzlich im Winter.
Fälschungen durch Fälschungen erkennen
Das traditionelle GAN (Generative Adversarial Network) besteht aus zwei Netzwerken: einem Generator, der mit Datensätzen wie Sommerlandschaften trainiert, um mehr Sommerlandschaften zu extrahieren; und einen Diskriminator, der Landschaften vergleicht, die mit demselben Datensatz erstellt wurden, um zu entscheiden, ob sie real oder falsch sind. CycleGAN arbeitet mit zwei Generatoren, Diskriminatoren und Bildsätzen, z. B. Sommer- und Winterlandschaften, die Sie ineinander verwandeln möchten. Der erste Generator trainiert Bilder von Sommerlandschaften, um Winterlandschaften zu erzeugen. Der zweite Generator macht genau das Gegenteil. Beide Diskriminatoren versuchen dann, Fälschungen zu erkennen, bis die gefälschten Landschaften nicht mehr von den realen unterschieden werden können.
Das McAfee-Team hat nun 1.500 Fotos von jedem der beiden Projektmanager in ein CycleGAN-System eingespeist, um sie ineinander zu verwandeln. Anschließend verwendeten sie einen speziellen Gesichtserkennungsalgorithmus, um zu testen, welche der beiden Personen in den erstellten gemischten Bildern erkannt wird. Nachdem CycleGAN Hunderte von Bildern generiert hatte, erstellte es schließlich ein gefälschtes Bild, das mit bloßem Auge wie Person A aussah, aber wie zu erkennende Person B aussah.
Während die Studie klare Bedenken hinsichtlich der Sicherheit von Gesichtserkennungssystemen aufwirft, gibt es auch einige Warnungen. Erstens hatten die Forscher keinen Zugang zu dem aktuellen System, mit dem Flughäfen Passagiere identifizieren, und verwendeten stattdessen einen höheren Open-Source-Algorithmus. „Ich denke, dass [Problem] Es wird für Angreifer schwieriger sein, anzugreifen „, sagt Povolny [sie] Ich habe keinen Zugriff auf das Zielsystem. Zweitens erfordert ein solcher Angriff heute viel Zeit und Ressourcen. CycleGAN erfordert jedoch leistungsstarke Computer und Fachwissen zum Trainieren und Ausführen.
Covid-19 wird sich sehr verändern
Gesichtserkennungssysteme und automatisierte Passkontrollen werden jedoch zunehmend für die Flughafensicherheit weltweit eingesetzt. Diese Änderung war auf zurückzuführen Pandemie und Covid-19 und beschleunigt den Wunsch nach kontaktlosen Systemen. Technologie wurde bereits von Regierungen und Unternehmen in diesem Bereich in großem Umfang eingesetzt folgenden, Einstellungen und Ereignissicherheit verwendet – obwohl viele Gruppen a Moratorium forderte solche Entwicklungen und einige Technologiestädte verboten haben.
Es gibt andere technische Versuche, die Gesichtserkennung zu untergraben. Ein Team der Universität von Chicago hat kürzlich ein Tool namens Fawkes veröffentlicht, mit dem Sie Gesichter tarnen können, indem Sie Ihre Fotos in sozialen Medien leicht ändern, um KI-Systeme auszutricksen, die auf Milliarden von Datenbanken basieren solche abgebauten Bilder sind. Forscher der Firma AI Kneron haben ebenfalls gezeigt, wie Masken Gesichtserkennungssysteme, die weltweit bereits verwendet werden, können täuschen.
McAfee-Forscher sagen, sie möchten die inhärenten Schwächen dieser KI-Systeme hervorheben und klarstellen, dass die Menschen ständig wachsam sein müssen. „KI und Gesichtserkennung sind unglaublich leistungsstarke Tools zur Identifizierung und Überprüfung von Personen“, sagt Povolny. „Aber wenn Sie einfach blind ein bestehendes System ersetzen, das sich ausschließlich auf Menschen stützt, ohne eine sekundäre Kontrolle durchzuführen, haben Sie plötzlich möglicherweise eine große Schwäche geschaffen.“
(Prob)