Facebook sagt, dass es besser wird, Hassreden zu entfernen, da es 1,5 Milliarden gefälschte Konten löscht.

Facebook macht Fortschritte bei der Erkennung von Hassreden, grafischer Gewalt und anderen Verstößen gegen seine Regeln, noch bevor Benutzer sie sehen und melden.

Im Zeitraum von April bis September verdoppelte Facebook die Menge an Hassreden, die proaktiv entdeckt wurde, im Vergleich zu den letzten sechs Monaten.

Die Ergebnisse wurden am Donnerstag im zweiten Bericht von Facebook über die Durchsetzung von Gemeinschaftsstandards dargelegt.

Der Bericht kommt einen Tag nach einem Bombenbericht der New York Times, in dem die Bemühungen von Facebook, Facebook herunterzuspielen und die Schuld für den Missbrauch gefälschter Nachrichten und russischer Propaganda auf der Plattform zu vermeiden, ausführlich beschrieben werden.

In seinem neuesten Bericht zur Entfernung von Inhalten sagte Facebook, dass es über 1,5 Milliarden gefälschte Konten deaktiviert habe, verglichen mit 1,3 Milliarden Konten in den letzten sechs Monaten.

Von diesen Konten sagte Facebook, dass die meisten der gefälschten Konten, die es fand, finanziell motiviert waren, anstatt auf Fehlinformationen abzielen.

Es hieß, dass 99,6 Prozent der gefälschten Konten proaktiv identifiziert und von der Plattform entfernt wurden, bevor die Benutzer sie sahen.

Gefälschte Konten machen immer noch 3 bis 4 Prozent der monatlich aktiven Nutzer aus, die im dritten Quartal im Ergebnis von Facebook ausgewiesen werden.

Facebook sagte, dass es 5,4 Millionen Hassreden während der sechs Monate entfernt habe, verglichen mit 4,1 Millionen zwischen Oktober und März.

Rund 23 Millionen gewalttätige und grafische Inhalte wurden von der Website entfernt, gegenüber 4,6 Millionen im vorangegangenen Halbjahr.

Wir werden nicht nur besser darin, schlechte Inhalte zu finden, wir nehmen auch mehr davon herunter“, sagte Guy Rosen, Vice President of Product Management bei Facebook, in einer Erklärung.

Dazu gehörte das Entfernen von Inhalten, das Setzen eines Warnbildschirms, das Deaktivieren des beleidigenden Kontos und/oder das Eskalieren von Inhalten an die Strafverfolgung“.

Facebook hat in seinem Bericht zwei neue Kategorien eingeführt, die sich mit Mobbing und Belästigung, Nacktheit von Kindern und sexueller Ausbeutung von Kindern befassen.

Das Unternehmen hat 2,1 Millionen Inhalte rund um Mobbing und Belästigung vernichtet, während es 8,7 Millionen Inhalte entfernt hat, die sich mit Nacktheit und sexueller Ausbeutung von Kindern befassen.

Insgesamt wissen wir, dass wir viel mehr zu tun haben, wenn es darum geht, Missbrauch auf Facebook zu verhindern“, sagte Rosen.

„Maschinelles Lernen und künstliche Intelligenz werden uns weiterhin helfen, schlechte Inhalte zu erkennen und zu entfernen.

Während es veröffentlicht, wie viele Verstöße es fängt, sagte das Unternehmen, dass es nicht immer zuverlässig messen kann, wie verbreitet diese Dinge auf Facebook insgesamt sind.

Während Facebook beispielsweise im Zeitraum Juli-September Maßnahmen gegen 2 Millionen Mobbingfälle ergriffen hat, bedeutet dies nicht, dass es in dieser Zeit nur 2 Millionen Mobbingfälle gab.

Facebook setzt sich weiterhin mit Herausforderungen auseinander, die von gefälschten Nachrichten bis hin zu der Rolle von Facebook bei der Einmischung in Wahlen, Hassreden und Aufrufen zu Gewalt in den USA, Myanmar, Indien und anderswo reichen.

Gleichzeitig beschrieb die Times-Story die Strategie von Facebook im Umgang mit diesen Themen als „verzögern, leugnen und ablenken“.

Facebook sagte, dass Donnerstag es Zeiten mit einem Washington Öffentlichkeitsarbeitunternehmen, Definers geschnitten hat, das die Zeiten sagten, dass Facebook angestellt, um Konkurrenten zu diskreditieren.

CEO Mark Zuckerberg sagte bei einem Gespräch mit Reportern, dass er erst beim Lesen des Times-Berichts von der Beziehung des Unternehmens zu Definers erfahren habe.

Teilen Ist Liebe! ❤

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares