Die Maschinen schlagen zurück.

Facebook steht immer wieder in der Kritik: zu wenig Datenschutz, zu viele Hasskommentare, zu hartes Vorgehen gegen weibliche Nippel … Die Liste ließe sich fortsetzen. Früher oder später kommt auch „zu viele Terroristen“ dazu. Das hat zumindest die britische Premierministerin Theresa May angedeutet. Nach dem Attentat auf der London Bridge sagte sie, das Internet biete eine Brutstätte für Extremisten und die großen Internetunternehmen ließen das zu.

Facebook reagierte damals und erklärte, es wolle eine „feindselige Umgebung“ für Terroristen sein. „Mit einer Mischung aus Technologie und Aufsicht durch Menschen arbeiten wir aggressiv daran, terroristische Inhalte von unserer Plattform zu entfernen, sobald wir von ihnen erfahren“, sagte Facebooks Politik-Chef Simon Milner. Dazu passt der Vorwurf "Facebook redet viel, macht aber wenig."

Jetzt wurde bekannt: Facebook setzt künstliche Intelligenz ein, um terroristische Inhalte auf seiner Plattform zu entdecken. Dabei gehe es unter anderem darum, schon bekannte Bilder und Videos beim erneuten Hochladen zu stoppen, erklärt die zuständige Facebook-Managerin Monika Bickert in einem Blogeintrag.

Zugleich experimentiere das Netzwerk aber auch mit Software, die automatisch eine terroristische Einstellung in Texten erkennen solle. Aktuell würden dafür Einträge ausgewertet, die wegen der Unterstützung von Terror-Organisationen wie dem IS oder Al-Kaida bereits gelöscht wurden. Mit den Ergebnissen dieser Analyse wird ein Algorithmus gefüttert, der gerade lerne, Posts mit solcher Ausrichtung selbst zu erkennen – neben Englisch auch in weiteren Sprachen, unter anderem aus dem arabischen Raum.

„Wir wollen terroristische Inhalte sofort entdecken, bevor Menschen in unserer Community sie zu sehen bekommen“, betont die Managerin, die zuvor unter anderem Staatsanwältin in den USA war. Das gelinge jetzt in einigen Fällen, sagte Brian Fishman, der sich beim Online-Netzwerk mit Terrorbekämpfung beschäftigt. „Wir arbeiten daran, diese Systeme schneller und verlässlicher zu machen.“

Grenze der Möglichkeiten

Facebook versuche auch, Beziehungen zwischen möglichen Islamisten zu identifizieren, steht in dem Blogeintrag. So fände das System heraus, ob jemand mit einer auffallend hohen Zahl von Personen befreundet ist, die terroristischen Content verbreitet haben. Auch wenn die Software immer besser werde, hänge der Erfolg vom Kontext ab, schränkt Bickert ein. Wenn zum Beispiel in einem Video IS-Symbole zu sehen seien, könne es sich um Terror-Propaganda handeln – oder einen Nachrichtenbeitrag. Hier seien bislang Entscheidungen von Menschen unverzichtbar.

Die Erkenntnisse sollen auch verwendet werden, um terroristische Inhalte bei Facebooks anderen Diensten wie Instagram und WhatsApp zu finden. Deshalb sei es wichtig, dass einzelne Apps Daten an Facebook weiterreichen könnten, heißt es in dem Blogeintrag – ein Gedanke, der bei Datenschützern auf Kritik stößt. Im vergangenen Jahr hatte Facebook versucht, Zugriff auf einige Informationen von WhatsApp-Nutzern zu bekommen. Datenschützer hatten das in Europa blockiert.

Quelle: Noizz.de