Sind „künstliche Gesichter“ stärker als echte? Der Tag, an dem synthetische Daten die „Gesichtserkennung“ verändern: Realität von Fairness, Privatsphäre und Implementierung vor Ort

Sind „künstliche Gesichter“ stärker als echte? Der Tag, an dem synthetische Daten die „Gesichtserkennung“ verändern: Realität von Fairness, Privatsphäre und Implementierung vor Ort

Gesichtserkennung ist zu einer grundlegenden Technologie in der Gesellschaft geworden, wie zum Beispiel beim Entsperren von Smartphones oder an Flughafengates. Gleichzeitig gibt es seit Jahren Herausforderungen in Bezug auf Privatsphäre, Vorurteile und die Schwierigkeit der Datenerfassung. Im Fokus steht nun synthetische Daten, die durch GANs und 3D-Modellierung erzeugt werden. Synthetische Daten können eine Vielzahl von Ethnien, Altersgruppen, Beleuchtungen und Haltungen flexibel erweitern und bergen ein geringeres Risiko für personenbezogene Daten. Der Markt wächst rasant und wird bis 2030 voraussichtlich auf etwa 1,79 Milliarden Dollar anwachsen. Gleichzeitig gibt es jedoch starke Kritik an der "Fidelity", also der Abweichung von der Realität, und am "Diversity Washing", bei dem Vielfalt nur vorgetäuscht wird. In den sozialen Medien gibt es sowohl Stimmen, die die Technologie als "datenschutzfreundlich und willkommen" bezeichnen, als auch Bedenken, dass "wenn die Validierungsgrundlage nicht Schritt hält, es kontraproduktiv sein könnte". Zukünftig werden vier Punkte entscheidend sein: ① Externe Validierung mit Betriebsdaten, ② Kontrolle der demografischen Verteilung, ③ Überprüfung von Artefakten aus synthetischen Daten und ④ Einhaltung von Vorschriften und Erklärbarkeit.