Erklärbarkeit und Interpretierbarkeit in der Biometrie

Moderne biometrische Systeme nutzen Methoden des sogenannten Deep Learnings. Dies führt dazu, dass die so automatisch trainierten Modelle zwar sehr genau, aber auch hochkomplexe sind. Dadurch sind sie nur sehr schwer zu interpretieren und nachzuvollziehen. Aber genau diese Erklärbarkeit und Nachvollziehbarkeit von Entscheidungen sind notwendig, um das Vertrauen der Nutzer zu stärken und mögliche Probleme frühzeitig zu erkennen. Gerade durch die Verarbeitung von sensiblen, personenbezogenen Daten und der zunehmenden Verbreitung in immer mehr Bereichen, haben biometrische Systeme häufig einen direkten Einfluss auf das Leben von Menschen. Die rein automatisierte Verarbeitung und eine fehlende Nachvollziehbarkeit lässt hier schnell ethische Fragen aufkommen.

Um mehr Informationen bei einem biometrischen Verifizierungssystem wiederzugeben, als nur eine Übereinstimmungs- oder Nicht-Übereinstimmungs- Entscheidung entwickelten wir eine Methode, welche zusätzlich die (Un-)Sicherheit des Modells bei der Entscheidung wiedergibt. Damit ist es Anwendern möglich, unsichere Modellentscheidungen zu erkennen und gegebenenfalls menschlich gegenzuprüfen.

 

Zur Forschungsarbeit »Stating Comparison Score Uncertainty and Verification Decision Confidence Towards Transparent Face Recognition«

Förderung

Die Forschung zur Erklärbarkeit und Interpretierbarkeit in der Biometrie ist Teil des Projekts Secure Identity Management in der ATHENE-Mission Next Generation Biometrics. ATHENE, das Nationale Forschungszentrum für angewandte Cybersicherheit wird durch das Bundesministerium für Bildung und Forschung (BMBF) und das Hessische Ministerium für Wissenschaft und Kunst (HMWK) gefördert.

Zur Übersichtsseite »Biometrie«