Ziel der „Unterdrückung friedlicher Meinungsäußerung“ im Palästinenserkonflikt

By | December 22, 2023

Laut einem Bericht von Human Rights Watch unterdrückt Meta systematisch pro-palästinensische Inhalte auf Instagram und Facebook.

In Metas Broken Promises behauptet die Kampagnengruppe, dass das Unternehmen friedliche Meinungsäußerungen zur Unterstützung Palästinas sowie die öffentliche Debatte über die Menschenrechte der Palästinenser entfernt oder unterdrückt habe.

Der Grund sei seiner Meinung nach eine Mischung aus fehlerhaften, inkonsistenten und fehlerhaft umgesetzten Richtlinien und einer übermäßigen Abhängigkeit von automatisierten Moderationstools sowie unzulässiger staatlicher Einflussnahme auf die Entfernung von Inhalten.

„Metas Zensur von Inhalten zur Unterstützung Palästinas ist in einer Zeit unaussprechlicher Gräueltaten und Unterdrückung, die bereits die palästinensische Meinungsäußerung unterdrückt, eine Beleidigung zur Beleidigung“, sagte Deborah Brown, amtierende stellvertretende Direktorin für Technologie und Menschenrechte bei Human Rights Watch.

„Soziale Medien sind eine wichtige Plattform für Menschen, um Missbräuche zu beobachten und sich dagegen auszusprechen, während Metas Zensur die Auslöschung des palästinensischen Leids fördert.“

HRW behauptet, mehrere wichtige Zensurmuster identifiziert zu haben, von denen jedes mehr als 100 Mal entdeckt wurde. Dazu gehören das Entfernen von Inhalten, die Sperrung oder Löschung von Konten, die Unfähigkeit, mit Inhalten zu interagieren, die Unfähigkeit, Konten zu folgen oder zu markieren, Einschränkungen bei der Nutzung von Funktionen wie Instagram/Facebook Live und Shadow-Banning, wenn die Beiträge, Geschichten oder das Konto einer Person geringer sind ohne Benachrichtigung sichtbar.

„In Hunderten dokumentierten Fällen hat sich Meta auf seine Richtlinie zu gefährlichen Organisationen und Einzelpersonen berufen, die die von den Vereinigten Staaten festgelegten Listen „terroristischer Organisationen“ vollständig berücksichtigt, sagt HRW.

„Meta zitierte diese Listen und wandte sie umfassend an, um legitime Meinungsäußerungen im Zusammenhang mit Feindseligkeiten zwischen Israel und bewaffneten palästinensischen Gruppen einzuschränken.“

In mehr als 300 Fällen heißt es, dass Nutzer keinen Einspruch gegen die Entfernung von Inhalten oder Konten einlegen konnten, weil der Einspruchsmechanismus nicht ordnungsgemäß funktionierte.

Der Bericht geht auf weit verbreitete Verdächtigungen hinsichtlich des Umgangs der Plattform mit konfliktbezogenen Inhalten ein. Anfang dieses Monats schrieb beispielsweise Senatorin Elizabeth Warren an Meta-CEO Mark Zuckerberg, äußerte Bedenken und bat das Unternehmen um weitere Informationen darüber, wie seine Richtlinien durchgesetzt werden.

„Angesichts der schrecklichen Terroranschläge der Hamas in Israel, einer humanitären Katastrophe, die den Tod Tausender Zivilisten in Gaza und die Ermordung Dutzender Journalisten umfasst, ist es wichtiger denn je, dass Social-Media-Plattformen wahrheitsgemäße und legitime Inhalte, insbesondere als Menschen, nicht zensieren Menschen auf der ganzen Welt wenden sich an Online-Communities, um Informationen über Entwicklungen in der Region auszutauschen und zu finden“, schrieb sie.

„Social-Media-Nutzer verdienen es zu wissen, wann und warum ihre Konten und Beiträge eingeschränkt werden, insbesondere auf den größten Plattformen, auf denen wichtige Informationen geteilt werden.“

Unterdessen kam das unabhängige Meta Oversight Board letzte Woche zu dem Schluss, dass der Einsatz automatisierter Tools zur Inhaltsmoderation durch das Unternehmen die Wahrscheinlichkeit erhöht, dass wertvolle Beiträge über menschliches Leid auf beiden Seiten des Konflikts unrechtmäßig entfernt werden.

„Social-Media-Plattformen wie Facebook und Instagram sind in bewaffneten Konflikten oft die einzigen Mittel zur Bereitstellung von Informationen, insbesondere wenn der Zugang für Journalisten eingeschränkt oder sogar verboten ist“, sagte Michael McConnell, Co-Vorsitzender des Rates.

Vor zwei Jahren beauftragte Meta auf Empfehlung des Oversight Board das unabhängige Unternehmen Business for Social Responsibility mit der Untersuchung, ob Facebook seine Inhaltsmoderation auf Arabisch und Hebräisch, einschließlich der Nutzung von Automatisierung, unvoreingenommen durchgesetzt hat.

Für Meta lief es jedoch nicht gut, und BSR kam zu dem Schluss, dass die Handlungen des Unternehmens „offenbar negative Auswirkungen auf die Menschenrechte gehabt haben … auf die Rechte palästinensischer Nutzer auf freie Meinungsäußerung, Versammlungsfreiheit, politische Teilhabe und nicht.“ – -Diskriminierung und daher auf der Fähigkeit der Palästinenser, Informationen und Erkenntnisse über ihre Erfahrungen auszutauschen, während sie geschehen sind.

Alle diese Kritiker fordern Veränderungen von Meta. Es sollte seine Richtlinie zu gefährlichen Organisationen und Einzelpersonen überprüfen, um sie an internationale Menschenrechtsstandards anzupassen, seine Richtlinien zur Entfernung von Inhalten überprüfen und eine sorgfältige Prüfung der Auswirkungen vorübergehender Änderungen an seinen Empfehlungsalgorithmen, die als Reaktion auf die jüngsten Feindseligkeiten eingeführt wurden, auf die Menschenrechte durchführen, heißt es HRW.

„Statt müder Ausreden und leerer Versprechungen sollte Meta zeigen, dass es ihr ernst damit ist, die Zensur im Zusammenhang mit Palästina ein für alle Mal anzugehen, indem sie konkrete Schritte in Richtung Transparenz und Abhilfe unternimmt“, sagte Brown.

Meta wurde um einen Kommentar gebeten.

Leave a Reply

Your email address will not be published. Required fields are marked *