Fairness und Bias in der Biometrie

Biometrische Systeme haben sich zunehmend in verschiedenen Bereichen wie der Kriminalistik, der Grenzkontrolle oder auch im privaten Bereich (etwa auf dem Smartphone) verbreitet. Die Situationen, in denen solche Systeme eingesetzt werden, haben zunehmend größeren Einfluss auf den einzelnen Menschen und umso besorgniserregender ist es, dass neuste Studien zeigen, dass sie teilweise voreingenommen (biased) sind. Dies bedeutet, dass sie abhängig von den demografischen (Geschlecht, Alter, Ethnie...) oder auch nicht-demografischen Merkmalen unterschiedlich gut funktionieren und Personen dadurch diskriminiert werden können. Dieser Umstand motiviert innovative Ansätze und Lösungen, um den Bias zu erkennen und die Fairness von biometrischen Systemen zu erhöhen.

In unserer Forschung zu nicht-demografischen Bias konnten wir untersuchen und zeigen, wie sich verschiedene Faktoren wie verschiedene Bartfrisuren, Haarfarben und ähnliches auf die Erkennungsgenauigkeit. Das Ergebnis ist eine Landkarte, welche erstmals positive und negative Merkmale identifiziert und darstellt und so eine umfassende Analyse präsentiert. auswirkt.

Zu unserer Studie »A Comprehensive Study on Face Recognition Biases Beyond Demographics«

 

Keine Diskriminierung durch das System

Um die Fairness eines Gesichtserkennungssystems zu verbessern, haben wir einen gruppenbasierter Ansatz entwickelt. Anstatt nur eine globale Entscheidungsgrenze für biometrische Vergleiche zu verwenden, generiert dieser Ansatz automatisch verschiedene Gruppen auf der Grundlage ihrer biometrischen Merkmale. Verschiedene Schwellenwerte werden vor der Anwendung des Systems für die Gesamtdaten und individuell für jede Gruppe berechnet. Findet ein Vergleich zwischen zwei Gesichtsbildern statt, werden diese zunächst ihrer ähnlichsten Gruppe zugeordnet und ihr vorberechneter Referenzwert wird zur Normalisierung des abschließenden biometrischen Vergleichs der Gesichtsbilder verwendet. Diese Normalisierung hat zur Folge, dass Gruppen, die von vorneherein durch das System benachteiligt werden, fairer behandelt werden.

Zum Artikel »Post-comparison Mitigation of Demographic Bias in Face Recognition Using Fair Score Normalization«

Förderung

Die Forschung zu Embedded Biometrics findet als Teil der ATHENE-Mission: Next Generation Biometrics Systems statt. ATHENE, das Nationale Forschungszentrum für angewandte Cybersicherheit wird durch das Bundesministerium für Bildung und Forschung (BMBF) und das Hessische Ministerium für Wissenschaft und Kunst (HMWK) gefördert.

Zur Übersichtsseite »Biometrie«