Reclaim your Face – Gesichtserkennung

Reclaim your Face – Gesichtserkennung

16. April 2021 Social Media 1

In Kooperation mit Studio Lev Kassel haben wir gemeinsam einen Workshop zu dem Thema Gesichtserkennung ausgearbeitet. Der Fokus lag dabei auf den Punkten wie Gesichtserkennung funktioniert, den Problemen die damit einhergehen und wie man die Erkennung vermeiden kann.

Als Grundlage verwendet der Beitrag hauptsächlich Veröffentlichungen vom Chaos Computer Club und Reportagen des Öffentlichen Rundfunks.

Bevor wir nun in das Thema Gesichtserkennung einsteigen möchte ich noch auf eine Petition hinweisen: Reclaim your Face. Um das Problem zu stoppen, bevor es beginnt.

Aber warum ist Gesichtserkennung ein Problem?

Funktionsweise

Gesichtserkennung verwendet Algorithmen, diese werden mit Massen an Daten gefüttert. In diesem Fall mit vielen, wirklich vielen, verschiedenen Gesichtern. Damit fertigt der Algorithmus ein Modell an. Mit diesem kann er dann auf Bildern oder Videos Gesichter erkennen.

Getestet werden kann Gesichtserkennung auf dieser Seite, welche auch gut dokumentiert ist. Genauere Erklärungen bieten die Humboldt-Universität und die Universität Ulm.

Bisher wurden die Algorithmus-Modelle zur Gesichtserkennung mit öffentlich verfügbaren Bildern trainiert – die meisten Bilder sind dabei von männlichen Weißen.

Das Problem

Daraus ergibt sich ein Problem, welches mit einem einfachen Beispiel erklärt werden kann:

Der Algorithmus ist letztendlich nur so gut wie die Daten, die ihn füttern. Wenn wir ihn nur mit Bildern von unterschiedlichen Katzen füttern, kann er zwar Katzen gut unterscheiden, weiß jedoch nur, dass beispielsweise ein Hund KEINE Katze ist. Ebenso ist ein Pferd KEINE Katze. Hund und Pferd werden dann in einen Topf geworden.

Die NIST-Studie hat ergeben, dass gerade bei Menschen, die nicht Weiß sind, der Algorithmus häufiger das Gesicht nicht erkennt oder sogar falsch zuordnet. Besonders häufig bei Schwarzen Frauen. Neben Einschränkungen in dem scheinbar durch die Gesichtserkennung erleichterten Alltag führt das zu Benachteiligungen bei Bewährungsanhörungen oder zu falschen Verhaftungen. Der Bias im Datensatz führt damit also zu einem diskriminierenden Verhalten des Algorithmus.

Lösungsmöglichkeiten

Mit dem heutigen Stand der Technik und den verwendeten Daten kann Gesichtserkennung nicht unvoreingenommen eingesetzt werden. Vor allem Weiße, männliche Menschen werden hier einfach genauer erfasst und dadurch weniger benachteiligt.

Wir könnten es dem Algorithmus zum einen durch geschickte Frisuren und verhüllende Kleidung schwerer machen. Zum anderen gibt es spezielle Muster auf Kleidung und Schminktechniken, die die Erkennung nahezu unmöglich machen. Auch die Verwendung von kontrastreichem Make-up funktioniert bisher relativ gut.

Make-up Techniken

  • Schwarz-Weiß Make-up
  • Asymmetrisch
  • Das verfremden von Markern (Nasenrücken, Augen, Lippen, Gesichtskontur, etc.)
  • Reflektierende Schminke (Glitzer und änliches)

Beispiele haben wir bei dem Workshop zusammen mit Studio Lev Kassel erarbeitet.

Filmreife Techniken

  • Mützen
  • große Brillen
  • starke Infarotlampen
  • Skimasken
  • Laserpointer (Sachbeschädigung)

Alle diese Techniken funktionieren nicht mit hundertprozentiger Sicherheit und fallen Menschen natürlich auf.

Die Verwendung von Gesichtserkennung sollte man bis sich die Nutzungsweise geändert hat, vermeiden. Bestätigt wird das durch größere Konzerne wie IBM, Amazon und Microsoft die ihre Kooperationen mit Polizeibehörden aussetzen. Gut wäre auch eine Regulierung zu Gunsten der Bevölkerung von Staatlicher Seite. Damit Missbräuche wie bei dem Skandal um Facebook und Cambridge Analytica nicht zur Gewohnheit werden.

Weiterführendes Material

Teile den Beitrag

 

Eine Antwort

  1. Das Projekt AutoCheck geht der Frage nach, welche Diskriminierungsrisiken in automatisierten Entscheidungssystemen (ADMS) stecken.
    https://algorithmwatch.org/de/autocheck-interview-jessica-wulf/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.