Als Reaktion auf die Terroranschläge in England stellt die Video-Plattform ein 4-Schritte-Programm vor.

Nach den Attacken wird den Sozialen Medien vorgeworfen, nicht genug gegen extremistische Inhalte zu tun.

Einge Politiker fordern sogar, dass man Unternehmen wie YouTube sanktionieren sollte, wenn sie keine maßgeblichen Änderungen vornehmen – schließlich haben sich die Attentäter von Manchester und London auf Online-Plattformen radikalisiert.

Um ein Zeichen zu setzen, hat Googles Vizepräsident Kent Walker nun YouTubes vier Schritte gegen Extremismus vorgestellt.

Damit will Google konsequenter radikalen Inhalten begegnen und sie bekämpfen. Der Suchmaschinenriese folgt damit Facebook mit seiner Agenda gegen „Hate speech“ und Extremismus von vergangenem Monat.

YouTubes vier Schritte gegen ISIS und anderen Terrorismus und Extremismus:

YouTube startet mit der Erweiterung der automatisierten Systeme, um extremistische Videos anhand eines „Inhalte-Einstufungssystems“ schneller zu identifizieren und zu löschen.

Der Pool an „Trusted Flaggers“, also Experten mit besonderen Privilegien, die dafür sorgen, dass die Inhalte auf YouTube die Konzern-Richtlinien einhalten, soll vergrößert werden.

Google-Vize Kent Walker hat versprochen, die Größe dieser Gruppe zu verdoppeln. Außerdem wird Google den Etat für die Experten erhöhen.

Der Konzern wird in Zukunft einen härteren Kurs gegen Videos fahren, die auch nur annähernd die Community-Standards verletzen. Dies umfasst beispielsweise auch Videos, die übertriebene religiöse oder rechtsradikale Inhalte zeigen.

Der finale Schritt wird es für Google sein, mehr für die Anti-Radikalisierung zu tun, indem User, die auf radikale Videos klicken, auf anti-radikalisierende Videos umgelenkt werden.

Die Technologie, die hierfür benutzt wird, nimmt die Kraft des „targeted online advertising“ (gezielte Online-Werbung) und nutzt sie für die Umlenkung auf De-Radikalisierungs-Videos.

Zudem erklärte Walker, dass YouTube mit anderen Konzernen eng an weiteren Anti-Terror-Programmen arbeiten wird, so etwa Facebook und Twitter.

Der Aussage Walkers zuffolge ginge der konsequente Kampf gegen den Terror im Internet nur als gemeinsames Projekt aller großen Plattformen.

Zum einen muss man als User sehr wenig über sich preisgeben, anders als zum Beispiel bei Facebook. Man kann also wild kommentieren und posten, ohne schnelle Konsequenzen.

Außerdem ist es ein riesiger Aufwand, Hass-Kommentare zu löschen – selbst unter eigenen Videos! Man muss den Kommentar zunächst melden und bekommt dann irgendwann eine Antwort von YouTube, in der einem mitgeteilt wird, ob es nun gelöscht wurde oder nicht. Das kann sehr lange dauern.

Vor allem im Kommentarbereich können radikale Inhalte also extrem einfach verbreitet werden. Bis sie dort gelöscht werden, haben schon Tausende andere User sie gesehen.

Ob und wann YouTube die oben genannten vier wichtigen Schritte einleiten wird, steht noch nicht fest. Wir werden sehen, ob die Video-Plattform seiner Verantwortung gerecht werden wird.

Quelle: Noizz.de