
Der Guardian hat Details von Facebook-Content-Moderationsrichtlinien veröffentlicht, die kontroverse Themen wie Gewalt, Hassrede und Selbstschaden aus mehr als 100 internen Trainingshandbüchern, Tabellenkalkulationen und Flussdiagrammen, die die Zeitung gesehen hat,
Die Dokumente, die in schwarz und weiß aufgeführt sind, sind einige der widersprüchlichen Positionen, die Facebook für den Umgang mit verschiedenen Arten von störenden Inhalten angenommen hat, da er versucht, den Inhalt zu senken, indem er seine bevorzugte Linie auf "freie Rede" hält. Dies geht einiger Weg, um zu erklären, warum das Unternehmen weiterhin in Moderationsprobleme läuft. Das und die winzige Anzahl von Menschen, die es benutzt, um markierte Inhalte zu überprüfen und zu beurteilen.
Die internen Moderationsrichtlinien zeigen zum Beispiel, dass Facebook das Teilen von Fotos von nicht-sexuellem Kindesmissbrauch, wie z. B. Darstellungen von Mobbing, erlaubt und nur Inhalte entfernen oder markieren wird, wenn es sich um ein sadistisches oder feierliches Element handelt.
Facebook ist auch bequem mit Bildern, die Tier-Grausamkeit zeigen - mit nur Inhalt, der als "extrem störend" angesehen wird, um als störend markiert zu werden.
Und die Plattform scheinbar erlaubt es Benutzern, Stream-Versuche zur Selbstverletzung zu leben - denn es sagt, dass es "nicht zensieren oder bestrafen will."
Wenn es um gewalttätige Inhalte geht, erlauben Facebook-Richtlinien, dass Videos von gewalttätigen Todesfällen geteilt werden können, während sie als störend markiert sind, wie es heißt, sie können dazu beitragen, das Bewusstsein für Probleme zu schaffen. Während bestimmte Arten von allgemein gewalttätigen schriftlichen Erklärungen - wie zum Beispiel diejenigen, die Gewalt gegen Frauen zum Beispiel befürworten - erlaubt sind, als Facebook-Richtlinien zu stehen, verlangen, was es für "glaubwürdige Handlungsanrufe" hält, damit gewalttätige Aussagen entfernt werden können.
Die Policen beinhalten auch Richtlinien für den Umgang mit Rache Porno. Für diese Art von Inhalt, die entfernt werden soll, verlangt Facebook drei Bedingungen erfüllt - einschließlich, dass der Moderator eine Mangel an Zustimmung über einen "rachsüchtigen Kontext" oder aus einer unabhängigen Quelle, wie einen Nachrichtenbericht, bestätigen kann.
Nach einem ausgelaufenen internen Dokument von The Guardian gesehen, hatte Facebook zu beurteilen, in der Nähe von 54.000 potenziellen Fällen von Rache Porno in einem einzigen Monat.
Weitere Details aus den Leitlinien zeigen, dass jeder mit mehr als 100.000 Anhängern eine öffentliche Figur bezeichnet und so den Schutz für Privatpersonen verweigert hat; Und dass Facebook seine Politik auf Nacktheit nach dem Aufschrei über seine Entscheidung geändert hat, um ein ikonisches Vietnam-Kriegfoto zu entfernen, das ein nacktes Kind schreit. Es erlaubt nun "nachträgliche Ausnahmen" unter den Richtlinien des "Terrors des Krieges". (Obwohl Bilder der Kindernacht im Kontext des Holocaust auf dem Gelände nicht erlaubt sind).
Das Exposé der internen Regeln kommt zu einer Zeit, in der der Social-Media-Riese unter Druck steht für die Entscheidungen, die es auf Content-Moderation macht.
Im April hat die Bundesregierung zum Beispiel einen Vorschlag zur Erhebung von Geldstrafen von bis zu 50 Millionen Euro auf Social-Media-Plattformen für den Fall, dass die illegale Hassrede nicht sofort beseitigt wurde, unterstützt. Ein britischer parlamentarischer Ausschuss hat auch in diesem Monat die Regierung aufgefordert, bei der Verhängung von Geldstrafen für Content-Mäßigungsversagen zu suchen. Während früher in diesem Monat ein österreichisches Gericht entschieden hat, müssen Facebook Beiträge entfernen, die als Hassrede gelten - und dies weltweit, anstatt nur ihre Sichtbarkeit lokal zu blockieren.
Gleichzeitig wurde die Live-Streaming-Funktion von Facebook verwendet, um Morde und Selbstmorde zu verbreiten, wobei das Unternehmen anscheinend nicht in der Lage war, Ströme präventiv abzuschalten.
Im Zuge der Probleme mit Facebook Live, Anfang dieses Monats sagte das Unternehmen, dass es sich um 3.000 zusätzliche Moderatoren handelt - und damit die Gesamtbelegschaft für die Überprüfung von Posts auf 7.500. Allerdings bleibt dies ein Tropfen im Ozean für einen Dienst, der knapp zwei Milliarden Nutzer hat, die täglich eine Summe von Milliarden von Teilen teilen.
Für eine Antwort auf Facebook-Moderationsrichtlinien gefragt, sprach ein Sprecher der britischen Nationalen Gesellschaft zur Verhütung von Grausamkeit gegenüber Kindern die Regeln als "alarmierend" und forderte eine unabhängige Regulierung der Moderationspolitik der Plattform - unterstützt durch Geldbußen für die Nichteinhaltung.
Social Media Unternehmen ... müssen unabhängig reglementiert und Geldstrafen, wenn sie nicht sicher Kinder zu halten
"Diese Einsicht in die Regeln von Facebook über die Moderation von Inhalten ist alarmierend, um es zu sagen", sagte der Sprecher. "Es gibt viel mehr Facebook kann tun, um Kinder auf ihrer Website zu schützen. Facebook und andere Social-Media-Unternehmen müssen unabhängig reglementiert und bestraft werden, wenn sie nicht Halten Sie Kinder sicher. "
In seiner eigenen Aussage, die auf die Geschichte des Wächters antwortet, sagte Facebook Monika Bickert, Leiterin des globalen Politikmanagements,: "Die Menschen auf Facebook zu halten, ist das Wichtigste, was wir tun. Wir arbeiten hart daran, Facebook so sicher wie möglich zu machen und freie Rede zu ermöglichen. Dies erfordert viel Gedanken in detaillierte und oft schwierige Fragen, und es ist richtig, was wir sehr ernst nehmen. Mark Zuckerberg hat vor kurzem angekündigt, dass wir im kommenden Jahr rund 3.000 Menschen in unsere Community-Operations-Team um die Welt bringen werden - auf die 4.500, die wir heute haben - um die Millionen von Berichten, die wir jede Woche erhalten, zu überprüfen und den Prozess zu verbessern Um es schnell zu machen. "
Sie sagte auch, dass Facebook in die Technologie investiert, um seinen Content-Review-Prozess zu verbessern, einschließlich der Betrachtung, wie es mehr tun kann, um die Inhaltsüberprüfung zu automatisieren - obwohl es derzeit meistens die Automatisierung verwendet, um menschliche Content-Rezensenten zu unterstützen.
"Neben der Investition in mehr Menschen, bauen wir auch bessere Werkzeuge, um unsere Gemeinschaft sicher zu halten", sagte sie. "Wir werden es einfacher machen, uns Probleme zu melden, schneller für unsere Rezensenten, um festzustellen, welche Beiträge unsere Standards verletzen und leichter für sie sind, um die Strafverfolgung zu kontaktieren, wenn jemand Hilfe braucht."
CEO Mark Zuckerberg hat bisher über die Verwendung von AI gesprochen, um zu analysieren und moderate Inhalte im Maßstab zu machen - obwohl er auch gewarnt hat, dass diese Technologie wahrscheinlich Jahre ist.
Facebook ist eindeutig fest, seine langfristige Hoffnungen für die massive Inhalt Moderation Problem ist es mit zukünftigen Automatisierung gesattelt. Allerdings ist die Vorstellung, dass Algorithmen intelligente solche menschliche Komplexität intelligent beurteilen können, als wenn Nacktheit angemessen ist oder nicht, ist sehr viel ein Glaubensartikel seitens der Technoutopianisten.
Die härtere politische Realität für Facebook ist, dass Druck von dem Aufschrei über seine gegenwärtigen Inhalt Mäßigung Ausfälle wird es zwingen, viel mehr Menschen beschäftigen, um ihre Handlung kurzfristig aufzuräumen.
Fügen Sie hinzu, dass, wie diese internen Moderationsrichtlinien zeigen, Facebook's eigene Position in scheinbar die Balance Offenheit / freie Meinungsäußerung mit "Sicherheit" ist inhärent widersprüchlich - und lädt genau die Art von Problemen, die es läuft mit Inhalt Moderation Kontroversen.
Es wäre relativ einfach für Facebook zu verbieten alle Bilder, die Tier-Grausamkeit, zum Beispiel - aber eine solche Position ist anscheinend "zu sicher" für Facebook. Oder eher zu beschränken von seinem Ehrgeiz, die globale Plattform für den Austausch zu sein. Und jedes Video von einem getretenen Hund ist doch ein Stück Inhalt für Facebook zu monetarisieren. Sicher zu sagen, das Leben mit dieser beunruhigenden Wahrheit wird nur noch unangenehm für Facebook.
In seiner Geschichte zitiert der Guardian einen Content-Moderationsexperten namens Sarah T Roberts, der argumentiert, dass Facebook-Content-Moderationsproblem ein Ergebnis der umfangreichen Skala seiner "Community" ist. "Es ist eine Sache, wenn du eine kleine Online-Community mit einer Gruppe von Leuten bist, die Prinzipien und Werte teilen, aber wenn du einen großen Prozentsatz der Weltbevölkerung hast und sagst," teilen dich ", wirst du in einem ziemlich verwirrten sein ," Sie sagte. "Dann, wenn Sie diese Praxis monetarisieren, treten Sie in eine Katastrophensituation ein."
0 Kommentare