Facebook mit neuen Richtlinien zum Entfernen von störenden Inhalten

Facebook

(4.9)
06.02.2026

Facebook führt eine Reihe von Änderungen im Zusammenhang mit der Zensur von Posts in sozialen Netzwerken durch. Sie helfen dabei, verdächtiges Material zu entfernen

Die neuesten Nachrichten auf Facebook besagen, dass das soziale Netzwerk seinen Moderatoren insgesamt 52 Millionen US-Dollar Schadenersatz zahlen wird. Das Unternehmen traf die Entscheidung, diesen Geldbetrag für seine Mitarbeiter bereitzustellen, denen die schwierige Aufgabe übertragen wurde, gewalttätige und schädliche Inhalte zu entfernen. Das Material wurde über Fotos und Videos hochgeladen, die von Benutzern als Beiträge veröffentlicht wurden. Der Fall ging an die kalifornische Justiz in den Vereinigten Staaten.

Hintergrund zu einem ähnlichen Ereignis

Die Spannung zwischen Facebook und seinen Moderatoren hat 2018 einen Präzedenzfall bei einem Fall von Accentura-Mitarbeitern gegen Facebook. Laut Accenture schützte das soziale Netzwerk seine Mitarbeiter nicht, die systematisch schockierenden Materialien wie Gewalt, Unzucht, Enthauptung, Terror, Tierquälerei, Schießen und dergleichen ausgesetzt waren. Aufgrund der Notwendigkeit einer Therapie für einige seiner Beschäftigten wurde für jeden Teilnehmer an der Klage eine Einigung von 1.000 USD erzielt. Diejenigen, die aufgrund ihrer Arbeitsverpflichtungen traumatische medizinische Ergebnisse nachweisen konnten, hatten Anspruch auf kostenlose Behandlung und konnten bis zu 50.000 US-Dollar verklagen.
Das Unternehmen hat den Menschen immer dafür gedankt, dass sie gefährliche Materialien gefunden und beseitigt haben. Das Unternehmen erklärte wiederholt, dass es sich verpflichtet habe, ihnen zusätzliche Unterstützung zu bieten.
Arbeiter auf der ganzen Welt haben dieselben Beschwerden wie ihre amerikanischen Kollegen. Chris Gray, der für das Unternehmen in Irland gearbeitet hat, spricht über einen Fall aus seiner persönlichen Erfahrung. Gray war gezwungen, ekelhafte Bilder von Hinrichtungen, Massenselbstmorden, rassistischen Veröffentlichungen und anderen Folterungen von Anhängern des Islamischen Staates zu sehen. Probleme, die sich aus dieser systematischen Betrachtung solcher Materialien ergeben, führen unweigerlich zu posttraumatischem Stress. Er sagt, dass das Trauma für eine lange Zeit nicht identifiziert werden kann, aber im Laufe der Zeit das Vorhandensein von Reizbarkeit, emotionaler Sensibilität und instabilem Verhalten erkennen kann.

Kontrollen stärken

Facebook entwickelt seinerseits zunehmend innovative Praktiken, um unangenehme Inhalte zu identifizieren. Mithilfe geschulter Programme für künstliche Intelligenz können Sie Texte und Grafiken finden, die nicht den Richtlinien von Facebook entsprechen. Anfang 2020 verstärkte das Unternehmen die Beseitigung von Gewalt und Hasspropaganda. Mehrere Gruppen im sozialen Netzwerk wurden aufgrund von Aufruhraufrufen verboten.
Zum Vergleich: Allein im ersten Quartal 2020 wurden rund 4,7 Millionen Stellen entfernt, verglichen mit 1,6 Millionen im gleichen Zeitraum des Jahres 2019. CEO Mark Zuckerberg glaubt an den Ansatz mit Warnhinweisen für Empfindliche Materialien waren ebenfalls sehr erfolgreich. Durch den Umzug konnten Benutzer entscheiden, welche Inhalte sie sehen und welche nicht.
Anfang dieses Monats wurden die Facebook-Nachrichten über die Schaffung eines Aufsichtsrats und einige der Namen, aus denen er bestehen würde, bekannt gegeben. Das Team besteht aus Wissenschaftlern, Journalisten, Schriftstellern und sogar einem Nobelpreisträger. Das Ziel ist, dass sie Definitionen über den Inhalt übernehmen, der auf die Site hochgeladen wird und Probleme verursachen kann. Der Facebook-CEO sagte, zahlreiche Beschwerden über schädliche Inhalte hätten sie dazu veranlasst, die Entscheidung zu treffen. Sobald der Vorstand gebildet ist, wird er unabhängig vom Unternehmen operieren und die höchste Schiedsgerichtsbarkeit über fragwürdige Inhalte haben.
Das US-Unternehmen teilt seinen Nutzern mit, dass eine größere Transparenz den Verdacht auf politische Einmischung auf Facebook beseitigen soll. Dementsprechend wird das wichtigste soziale Netzwerk der Welt darum kämpfen, Wahlstörungen und massive Desinformation zu vermeiden. Facebook versicherte auch, dass bei der Auswahl der ersten zwanzig Mitglieder ihre Berufserfahrung und Ausbildung berücksichtigt wurden. Dem Oversight Board gehören ehemalige Politiker, Richter und Verleger aus der ganzen Welt an, darunter Großbritannien, Ungarn, Israel, Pakistan, Kolumbien und Afrika. Das Team spricht mehr als 29 Sprachen, was die Suche nach einer Vielzahl von Plänen zeigt.
Der Verwaltungsrat plant nicht, Fälle zu behandeln, in denen bereits eine Entscheidung getroffen wurde und das Unternehmen den Inhalt nach eigenem Ermessen entfernt hat. Bis zur Bildung des gesamten Teams werden die Arbeiten von den ersten zwanzig Mitgliedern durchgeführt, die in der Lage sind, die Fälle zu überprüfen und die angesprochenen Standpunkte zu ermitteln. Die verbleibenden Mitglieder dieses Gremiums werden im nächsten Jahr bekannt gegeben.

Facebook startet neue Spieleanwendung

Facebook startet neue Spieleanwendung

Facebook kündigte den Abgang von Facebook Gaming an. Die App ist bereits bei Google Play für Android-Nutzer verfügbar und wird in Zukunft für iOS verfügbar sein
Facebook mit neuen Richtlinien zum Entfernen von störenden Inhalten

Facebook mit neuen Richtlinien zum Entfernen von störenden Inhalten

Facebook führt eine Reihe von Änderungen im Zusammenhang mit der Zensur von Posts in sozialen Netzwerken durch. Sie helfen dabei, verdächtiges Material zu entfernen
Facebook startet Facebook Shop

Facebook startet Facebook Shop

Das am häufigsten genutzte soziale Netzwerk bietet die Möglichkeit, Produkte zu kaufen und zu verkaufen. Mit dem Aufstieg des Online-Shoppings. Finden Sie eine Integration mit Instagram und WhatsApp


Über uns | Bedingungen | Kontakt | deyoox.com Gowa internet mobile SL VAT ID: B87495891. Alle Rechte vorbehalten. | Siehe Informationen
Can not open /usr/share/GeoIP/GeoIP.dat