Wie Maschinen diskriminieren – Facial Recognition & the Matrix of Domination

Künstliche Intelligenz (KI) begleitet uns längst im Alltag, zum Beispiel auf unseren Smartphones. Doch KI ist nicht nur eine super coole Unterstützung, die uns das Leben vereinfacht und uns die Musik vorschlägt, die wir mögen. KI reproduziert auch Stereotype und ist sogar rassistisch und diskriminierend. Dabei sind Personen, die von mehreren Diskriminierungsformen, also intersektional, gleichzeitig betroffen sind, noch verstärkter betroffen.

Lange Zeit musste beispielsweise Joy Buolamwimi eine weiße Maske auf der Arbeit tragen, um einen Roboter trainieren zu können - ihre weißen Arbeitskolleg*innen mussten dies nicht. Warum? Weil die darunterliegende KI nur weiße Gesichter erkennen konnte. Die Polizei arbeitet bereits mit Facial Recognition Software, also Gesichtserkennung. Dies ist hoch problematisch, da die Software sehr fehlerhaft arbeitet. In diesem Jahr wurde im US-Bundesstaat Michigan ein Schwarzer Mann fälschlicherweise zu einer Strafe verurteilt, da ihn eine Gesichtserkennungs-Software als Täter identifiziert hatte. Auch in Deutschland spielt Gesichtserkennung eine zunehmend wichtige Rolle, ob beim G20 in Hamburg oder am Berliner Bahnhof Südkreuz. In einer Studie untersuchte Joy Buolamwimi zusammen mit ihrer Kollegin Timnit Gebru Geschlechtserkennungssysteme, eine Software, die besonders für trans* und nicht-binäre Personen gefährlich sein kann. 

Bemerkungen

Dieser Film wurde im Rahmen der gleichstellungsfördernden Maßnahmen des Professorinnenprogramms II an der FH Potsdam realisiert.

Die Beteiligten des Projekts: 
Konzept und Inhalt: Nushin Yazdani
Illustrationen: José Rojas
Animationen: Jan Schulz
Sprecherinnen: Alice Hasters und Maximiliane Häcke (von Feuer und Brot)
Lektorat: Julian Dörr