Die automatische Gesichtserkennung hat zurzeit wegen der Proteste gegen Rassismus und Polizeigewalt in den USA einen schwierigen Stand. Macht Ihnen das Sorgen?
Christian Fehrlin: Ja, es macht mir Sorgen, wenn der Einsatz der Gesichtserkennung moralischen Standards nicht genügt. Der Hintergrund ist, dass manche Systeme gewisse Ethnien nicht gut erkennen und viele falsche Treffer generieren. Für uns ist es wichtig, keinen solchen Bias zu haben – und wir haben auch in der Praxis gezeigt, dass unser Programm dieses Problem nicht hat.

Partner-Inhalte
 
 
 
 
 
 

Sie sind mit Ihrer Firma im Bereich der Gesichtserkennung tätig. Was kann die Software?
Unsere Software kann Gesichter erkennen, abgleichen und identifizieren. Dabei gehören wir zur Weltspitze: Wir sind schnell und brauchen nur 0,3 Sekunden, um ein Gesicht zu identifizieren. In einem Test, bei dem unter einer Million Gesichtern das richtige gefunden werden muss, schaffen wir 99,8 Prozent. Zum Vergleich: Google hatte hier 99,6 Prozent, wobei die publizierten Google-Resultate schon ein paar Jahre alt sind.

Christian Fehrlin Deep Impact

Christian Fehrlin: Gründer und CEO der Firma Deep Impact.

Quelle: ZVG

Können Sie ein Anwendungsbeispiel geben? Was waren dabei die Herausforderungen?
Wir machten die Eingangskontrolle beim Hochrisikospiel Beşiktaş Istanbul gegen Fenerbahçe. Beşiktaş suchte eine Gesichtserkennungssoftware, weil kein anderer Club in Europa mehr Geisterspiele austragen musste. Die Schwierigkeit war, dass wir die Gesichter während des Einlasses aufnehmen mussten und nicht aus einer Datenbank nehmen konnten. Doch unser System funktionierte gut, auch wenn Beşiktaş am Ende aus Kostengründen auf die Einführung verzichtete. Allein der Test genügte, dass sich die Zuschauer nun besser benehmen. Seither hatten sie nie mehr ein Geisterspiel.

Liefern Sie auch an staatliche Stellen? An wen?
Zu unserer Zielgruppe gehören Polizeikorps in ganz Europa und auch gewisse Nachrichtendienste. Wer das ist, kann ich nicht sagen, aber es gibt offizielle Institutionen, die unsere Software nutzen.

Die automatische Gesichtserkennung hat ein grosses Missbrauchspotenzial. Was tun Sie, damit Ihre Programme nicht in falsche Hände geraten?
Grundsätzlich verkaufen wir nur an demokratische Länder. Doch es gibt eine Grauzone. So hatte Pakistan Interesse an unserem System, um Terrorverdächtige am Zutritt zu Cricketspielen zu hindern. Die Sorge war, dass der Attentäter im Stadion mit Waffen oder Sprengstoff beliefert werden könnte. Pakistan ist zwar ein instabiles Land mit demokratischen Defiziten, aber das Problem schien uns legitim, da es dort immer wieder zu Terroranschlägen gegen Grossveranstaltungen kommt. Der Deal kam am Ende jedoch nicht zustande.

In der Schweiz und in Europa ist der Datenschutz stark. Ist das ein Problem?
Nein, ich bin immer wieder positiv überrascht, wie ernst der Datenschutz in der Schweiz genommen wird. Mit dem neuen Nachrichtendienstgesetz weiss man, welche Daten man speichern darf, wen man überwachen darf und wann man ein Dossier über jemanden anlegen darf. Aber es gibt auch noch Unsicherheiten: Darf ich zum Beispiel eine Hooligan-Liste mit Gesichtern führen und die Leute beim Stadioneingang rausfiltern? Ein Türsteher darf das, aber bei einer Maschine ist das unklar. Solche Dinge sollten geregelt werden.

Die Coronavirus-Pandemie gilt in vielen Bereichen als Katalysator der Digitalisierung. Trifft dies auch auf die Gesichtserkennung zu?
Das ist eindeutig so. In Zeiten von Covid-19 hinterlässt etwa ein PIN-Terminal eines Geldautomaten bei vielen Nutzern ein ungutes Gefühl. Alles, was ohne Berührung auskommt, ist im Kommen. Das merken wir.

Big Brothers Are Watching You

In Zeiten von Corona weiten Staaten und Firmen den Einsatz der Technologie aus. Damit steigt auch die Gefahr von Missbräuchen. Fünf Fragen und Antworten zur Gesichtserkennung. Mehr hier. Abo