Facebook kommuniziert zum ersten Mal Statistiken über Ihre Inhalte blockieren

geralt / Pixabay

Facebook veröffentlicht heute, zum ersten Mal, Statistiken über die Anzahl der Veröffentlichungen auf dem sozialen Netzwerk zwischen Oktober 2017 und März 2018 blockiert. Die Zahlen umfassen sechs Bereiche: grafische Gewalt, Nacktheit und sexuelle Aktivität von Erwachsenen, terroristische Propaganda, Hassreden, Spam und falsche Konten.

Die Zahlen zeigen:

  • Die Menge an Inhalten, die Menschen gesehen haben und die die Facebook-Standards verletzt
  • Die Menge des entfernten Inhalts
  • Die Menge des Inhalts erkannt proaktive Weise-vor Facebook-Nutzer melden.

Spam

Die meisten der Schritte, um schlechte Inhalte zu unterdrücken sind Spam und gefälschte Konten verwendet, um Sie zu verteilen. Zum Beispiel:

837 Millionen Spam wurde im ersten Quartal 2018, von denen fast 100% wurden erkannt, bevor jemand es gemeldet gelöscht.

Der Schlüssel zum Kampf gegen Spam ist, die gefälschten Konten zu entfernen, die es propagieren. Im ersten Quartal wurden etwa 583 Millionen falsch Konten deaktiviert, die meisten Minuten nach der Registrierung. Dies ist zusätzlich zu den Millionen von versuchen, gefälschte Konten täglich von der Registrierung auf Facebook verhindert. Im ganzen schätzt Facebook, dass etwa 3 bis 4% der Facebook-Konten aktiv auf der Website während dieser Zeit waren immer noch falsch.

Andere Typen nicht konformer Inhalte

21 Millionen Stücke von Erwachsenen Nacktheit und sexuelle Aktivität wurden bei T1 2018 entfernt-von denen 96% gefunden wurden und von einem automatischen Algorithmus gemeldet, bevor diese Publikationen gemeldet wurden. Im ganzen schätzt Facebook, dass von 10 000 Content-Elemente auf dem sozialen Netzwerk angesehen, 7 bis 9 Ansichten waren Inhalte, die Standards für Erwachsene Nacktheit und Pornographie verletzt.

Im Hinblick auf die grafische Gewalt, 3,5 Millionen von Elementen von gewalttätigen Inhalten wurden unterdrückt oder zensiert bei T1 2018-von denen 86% wurden durch einen automatischen Algorithmus erkannt, bevor diese Publikationen gemeldet wurden.

In Bezug auf Hassreden, die Technologie immer noch nicht richtig funktioniert, zugegebenermaßen von Facebook, und muss daher manuell überprüft werden. 2,5 Millionen Hass-Sprachelemente wurden im ersten Quartal 2018 unterdrückt, wovon 38% von automatischen Algorithmen gemeldet wurden.

 

Quelle: Facebook Newsroom

Be the first to comment

Leave a Reply

Your email address will not be published.


*