Facebook nutzt maschinelles Lernen, um Beiträge zu markieren, bei denen der Verdacht besteht, dass sie Verbindungen zu terroristischen Gruppen haben.

Facebook sagte, dass es erfolgreicher war, terroristische Inhalte von seiner Plattform zu entfernen – was zum großen Teil seinen fortschrittlichen KI-Tools zu verdanken ist.

Der Social-Media-Riese sagte am Donnerstag, dass er im dritten Quartal 3 Millionen Stück terroristischer Inhalte von seiner Website heruntergenommen hat, gegenüber 9,4 Millionen Stück im zweiten Quartal.

Es sagte, dass neue maschinelle Lernwerkzeuge ihm geholfen haben, Beiträge herunterzuziehen, die die Unterstützung für ISIS oder al-Qaeda schneller als bisher signalisieren können.

Facebook sagte, dass die KI jedem Beitrag eine Punktzahl gibt, die zeigt, wie wahrscheinlich es ist, gegen die Anti-Terrorpolitik der Firma zu verstoßen, was es ihren menschlichen Gutachtern erlaubt, zu priorisieren, welche Beiträge zuerst Aufmerksamkeit benötigen.

Facebook hat auch die mediane Zeit zwischen dem Zeitpunkt, an dem ein Benutzer zum ersten Mal einen terroristischen Beitrag meldet, und dem Zeitpunkt, an dem er ihn abschaltet, verkürzt.

Das Unternehmen hat seinen Ansatz darauf ausgerichtet, terroristische Inhalte zu entfernen, bevor sie von einem breiten Publikum gesehen werden.

Im dritten Quartal betrug diese mediane Zeit 18 Stunden, was einen deutlichen Rückgang von 43 Stunden im ersten Quartal und 22 Stunden im zweiten Quartal bedeutet.

Sowohl im zweiten als auch im dritten Quartal fanden wir heraus, dass mehr als 99% der ISIS- und al-Qaida-Inhalte letztendlich von uns selbst entfernt wurden, bevor sie von jemandem in unserer Community gemeldet wurden“, schrieb Monika Bickert, die globale Leiterin der Politik von Facebook, und Brian Fishman, der Leiter der Anti-Terrorpolitik von Facebook, in einem Blogbeitrag.

Das Unternehmen sagt, dass es jetzt maschinelles Lernen einsetzt, um Beiträge zu finden, die Unterstützung für diese terroristischen Gruppen signalisieren können.

In einigen Fällen entfernt Facebook automatisch Beiträge, die eine „sehr hohe“ Punktzahl erhalten.

Wir verlassen uns immer noch auf spezialisierte Gutachter, um die meisten Beiträge zu bewerten, und entfernen Beiträge erst dann, wenn das Vertrauensverhältnis des Tools hoch genug ist, dass seine „Entscheidung“ darauf hindeutet, dass es genauer sein wird als unsere menschlichen Gutachter“, erklärten Bickert und Fishman.

Darüber hinaus können die Algorithmen von Facebook nun etwa 19 verschiedene Sprachen verstehen.

Einige der 3 Millionen identifizierten Beiträge waren alt, aber Facebook sagte, dass es in der Lage war, 2,3 Millionen brandneue Beiträge im dritten Quartal zu ziehen.

Das Unternehmen sagt, dass es weiterhin hart daran arbeiten wird, terroristische Inhalte zu entfernen.

Wir sollten dies nicht als ein Problem betrachten, das auch in den optimistischsten Szenarien „gelöst“ und beiseite gelegt werden kann“, sagten Bickert und Fishman.

Wir können die Präsenz des Terrorismus auf den gängigen sozialen Plattformen reduzieren, aber seine vollständige Beseitigung erfordert die Ansprache der Menschen und Organisationen, die dieses Material in der realen Welt erzeugen.

Teilen Ist Liebe! ❤❤❤ 22 shares ❤❤❤

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares