Online-Netzwerke verlassen sich bei verbotenen Inhalten meist auf Hinweise von Nutzern. Beim Kampf gegen Terror-Propaganda setzt Facebook inzwischen auch auf seine selbstlernenden Maschinen. Eine Einschätzung durch Menschen wird aber auch weiterhin gebraucht.

Facebook setzt künstliche Intelligenz ein, um terroristische Inhalte auf seiner Plattform zu entdecken. Dabei gehe es unter anderem darum, bereits bekannte Bilder und Videos beim erneuten Hochladen zu stoppen, erklärte die zuständige Facebook-Managerin Monika Bickert in einem Blogeintrag.

Partner-Inhalte
 
 
 
 
 
 

Algorithmus lernt Posts zu erkennen

Zugleich experimentiere das weltgrösste Online-Netzwerk aber auch mit Software, die automatisch eine terroristische Einstellung in Texten erkennen solle. Aktuell würden dafür Einträge ausgewertet, die wegen der Unterstützung von Terror-Organisationen wie der Terrormiliz Islamischer Staat (IS) oder Al-Kaida bereits gelöscht wurden.

Mit den Ergebnissen dieser Analyse wird ein Algorithmus gefüttert, der gerade lerne, Posts mit solcher Ausrichtung selbst zu erkennen. Neben Englisch laufe die Arbeit auch in weiteren Sprachen, auch aus dem arabischen Raum, sagte Bickert.

Katz-und-Maus-Spiel

«Wir wollen terroristische Inhalte sofort entdecken, bevor Menschen in unserer Community sie zu sehen bekommen», betonte die Managerin, die zuvor unter anderem Staatsanwältin in den USA war.

Das gelinge jetzt in einigen Fällen, sagte Brian Fishman, der sich beim Online-Netzwerk mit Terrorbekämpfung beschäftigt. «Wir arbeiten daran, diese Systeme schneller und verlässlicher zu machen.» Zugleich sei es Katz-und-Maus-Spiel: «Wenn wir verhindern, dass Terroristen unsere Plattform erreichen, versuchen sie, neue Wege zu finden.» Es gebe «keinen Schalter, mit dem man Terrorismus einfach abstellen kann».

Menschen sind unverzichtbar

Inzwischen werde mehr als die Hälfte der wegen Terror-Propaganda gelöschten Facebook-Accounts vom Netzwerk selbst entdeckt, sagte Bickert. Normalerweise ist Facebook auf Hinweise von Nutzern auf illegale oder beim Netzwerk untersagte Inhalte angewiesen. Eine Ausnahme ist Kinderpornografie, gegen die unter anderem mit automatisierter Software gekämpft wird.

«Auch wenn unsere Software immer besser wird, hängt sehr viel auch vom Kontext ab», schränkte Bickert ein. Wenn zum Beispiel in einem Video IS-Symbole zu sehen seien, könne es um Terror-Propaganda oder auch aber einen Nachrichtenbeitrag handeln. Hier seien im Moment Entscheidungen von Menschen unverzichtbar.

Auf weitere Dienste ausdehnen

Die Erkenntnisse aus der Facebook-Plattform sollen auch verwendet werden, um Profile mit terroristischen Inhalten bei anderen Diensten des Online-Netzwerks wie Instagram und WhatsApp zu finden.

Auch deshalb sei es wichtig, dass einzelne Apps Daten an Facebook weiterreichen könnten, hiess es in dem Blogeintrag. Facebooks Versuch, Zugriff auf einige Informationen von WhatsApp-Nutzern zu bekommen, wurde im vergangenen Jahr in Europa von Datenschützern blockiert.

Auch Google kämpft mit künstlicher Intelligenz

Auch Google hat angekündigt, den Kampf gegen terroristische Inhalte im Netz mit künstlicher Intelligenz zu verstärken. Der Internet-Konzern werde dafür mehr Entwickler und seine modernste Technologie bei selbstlernenden Maschinen einsetzen, kündigte Google-Chefjurist Kent Walker am Sonntag an. Gleichzeitig will Google aber auch verstärkt auf Hilfe von Experten setzen.

Damit sollen unter anderem bei der Videoplattform YouTube automatisch mehr Clips mit Terrorpropaganda aufgespürt werden. Auch die Zahl der Experten, die über als verdächtig markierte Videos entscheiden, werde stark erhöht, schrieb Walker in einem Beitrag in der Londoner Zeitung «Financial Times».

Mit «Trusted Flagger» gegen Terror

Google setzt dabei auf «Trusted Flagger», das sind Einzelpersonen oder Organisationen, denen Google vertraut, wenn sie anstössige oder rechtswidrige Inhalte anzeigen. Das können auch Strafverfolgungsbehörden sein.

Walker betonte, Google, YouTube und andere Internet-Firmen arbeiteten zwar schon seit Jahren daran, solche Inhalte zu finden und zu löschen - aber «die unbequeme Wahrheit ist, dass wir als Industrie eingestehen müssen, dass noch mehr getan werden muss. Jetzt.»

Google setze bereits auf die Analyse von Videobildern, um Terror-Propaganda auch ohne Hinweisen von Nutzern zu entdecken, betonte Walker. Mehr als die Hälfte der gelöschten Inhalte in den vergangenen sechs Monaten sei so gefunden worden. Entwickler des Internet-Konzerns hätten auch Technologie entwickelt, die ein erneutes Hochladen bereits bekannter terroristischer Videos verhindere.

Vor allem in Europa stieg zuletzt der politische Druck auf Google, Facebook und andere Online-Dienste, härter gegen terroristische Propaganda vorzugehen. So erklärte die britische Premierministerin Theresa May nach dem jüngsten Attentat auf der London Bridge, Extremismus finde im Netz eine sichere Brutstätte - und die grossen Internetunternehmen liessen dies zu.

(sda/ccr)

So sehen die Boni bei Google, Facebook und Co. aus: