Die Maschinen schlagen zurück.

Facebook steht immer wieder in der Kritik: zu wenig Datenschutz, zu viele Hasskommentare, zu hartes Vorgehen gegen weibliche Nippel … Die Liste ließe sich fortsetzen. Früher oder später kommt auch „zu viele Terroristen“ dazu. Das hat zumindest die britische Premierministerin Theresa May angedeutet. Nach dem Attentat auf der London Bridge sagte sie, das Internet biete eine Brutstätte für Extremisten und die großen Internetunternehmen ließen das zu.

An dieser Stelle findest du Inhalte von Drittanbietern
Um mit Inhalten von Drittanbietern zu interagieren oder diese darzustellen, brauchen wir deine Zustimmung.

Facebook reagierte damals und erklärte, es wolle eine „feindselige Umgebung“ für Terroristen sein. „Mit einer Mischung aus Technologie und Aufsicht durch Menschen arbeiten wir aggressiv daran, terroristische Inhalte von unserer Plattform zu entfernen, sobald wir von ihnen erfahren“, sagte Facebooks Politik-Chef Simon Milner. Dazu passt der Vorwurf "Facebook redet viel, macht aber wenig."

Jetzt wurde bekannt: Facebook setzt künstliche Intelligenz ein, um terroristische Inhalte auf seiner Plattform zu entdecken. Dabei gehe es unter anderem darum, schon bekannte Bilder und Videos beim erneuten Hochladen zu stoppen, erklärt die zuständige Facebook-Managerin Monika Bickert in einem Blogeintrag.

An dieser Stelle findest du Inhalte von Drittanbietern
Um mit Inhalten von Drittanbietern zu interagieren oder diese darzustellen, brauchen wir deine Zustimmung.

Zugleich experimentiere das Netzwerk aber auch mit Software, die automatisch eine terroristische Einstellung in Texten erkennen solle. Aktuell würden dafür Einträge ausgewertet, die wegen der Unterstützung von Terror-Organisationen wie dem IS oder Al-Kaida bereits gelöscht wurden. Mit den Ergebnissen dieser Analyse wird ein Algorithmus gefüttert, der gerade lerne, Posts mit solcher Ausrichtung selbst zu erkennen – neben Englisch auch in weiteren Sprachen, unter anderem aus dem arabischen Raum.

„Wir wollen terroristische Inhalte sofort entdecken, bevor Menschen in unserer Community sie zu sehen bekommen“, betont die Managerin, die zuvor unter anderem Staatsanwältin in den USA war. Das gelinge jetzt in einigen Fällen, sagte Brian Fishman, der sich beim Online-Netzwerk mit Terrorbekämpfung beschäftigt. „Wir arbeiten daran, diese Systeme schneller und verlässlicher zu machen.“

Facebook versuche auch, Beziehungen zwischen möglichen Islamisten zu identifizieren, steht in dem Blogeintrag. So fände das System heraus, ob jemand mit einer auffallend hohen Zahl von Personen befreundet ist, die terroristischen Content verbreitet haben. Auch wenn die Software immer besser werde, hänge der Erfolg vom Kontext ab, schränkt Bickert ein. Wenn zum Beispiel in einem Video IS-Symbole zu sehen seien, könne es sich um Terror-Propaganda handeln – oder einen Nachrichtenbeitrag. Hier seien bislang Entscheidungen von Menschen unverzichtbar.

An dieser Stelle findest du Inhalte von Drittanbietern
Um mit Inhalten von Drittanbietern zu interagieren oder diese darzustellen, brauchen wir deine Zustimmung.

Die Erkenntnisse sollen auch verwendet werden, um terroristische Inhalte bei Facebooks anderen Diensten wie Instagram und WhatsApp zu finden. Deshalb sei es wichtig, dass einzelne Apps Daten an Facebook weiterreichen könnten, heißt es in dem Blogeintrag – ein Gedanke, der bei Datenschützern auf Kritik stößt. Im vergangenen Jahr hatte Facebook versucht, Zugriff auf einige Informationen von WhatsApp-Nutzern zu bekommen. Datenschützer hatten das in Europa blockiert.

Quelle: Noizz.de