Was versteht man unter einer Content Moderation Strategie?

04. November 2021

Susanne Kopf, Assistenzprofessorin am Institut für Englische Wirtschaftskommunikation

Was versteht man unter einer Content Moderation Strategie?

Auf den Begriff content moderation Strategie trifft man häufig in Zusammenhang mit sozialen Medien. Die Anbieter diverser sozialer Medien, wie Facebook, YouTube oder Twitter, haben üblicherweise Richtlinien, welche Inhalte die Nutzer*innen auf diesen Plattformen teilen dürfen und wie sich Nutzer*innen verhalten sollen. In diesem Kontext kann der Ausdruck content moderation Strategie auf drei Aspekte bezogen werden.

Erwünschte Inhalte und mögliche Konsequenzen

Der erste Aspekt betrifft die Grenzen, die ein Anbieter eines sozialen Mediums seinen/ihren Nutzer*innen setzt. In diesem Zusammenhang bezieht sich der Begriff content moderation Strategie auf die Frage, welche Inhalte und welches Verhalten auf einer social media Plattform erwünscht sind, aber auch, welche nicht toleriert werden. Der zweite Aspekt bezieht sich auf die möglichen Konsequenzen einer Richtlinienverletzung, zum Beispiel das Löschen des unerwünschten contents, eine Sperre des Nutzer*innenprofils oder im Extremfall gar das Einleiten rechtlicher Schritte gegen den Nutzer/die Nutzerin.

Top-down oder bottom-up enforcement?

Der dritte Punkt, auf den sich der Begriff content moderation Strategie bezieht, umfasst von wem und auch wie die Inhaltskontrollen durchgeführt werden. In meiner Forschung unterscheide ich zwischen top down, community-based und community-informed enforcement. Bei ersterem setzt der social media Betreiber rein seine eigenen Systeme ein (z.B. automatische Filtersysteme in Form von künstlicher Intelligenz oder manueller Kontrolle). Die zweite Strategie ist das genaue Gegenteil – hier reguliert sich die community der NutzerInnen selbstständig, wie zum Beispiel die AutorInnengemeinschaft auf Wikipedia das größtenteils tut. Die dritte Vorgehensweise stellt eine Kombination aus top-down und community-based enforcement dar, das heißt, die Nutzer*innen informieren den Betreiber über Verhalten, das gegen die Richtlinien verstößt, woraufhin dieser den betreffenden Inhalt sichtet und mögliche Konsequenzen zieht.

Zensur versus Schutz der Nutzer*innen

Generell wirft die Thematik komplexe Fragen auf. Inwieweit soll und kann die Inhaltskontrolle auf sozialen Medien und damit die Entscheidung darüber, was im öffentlichen Raum gesagt werden darf, Privatunternehmen, wie es YouTube und Facebook sind, überantwortet werden? Als Gegenpol dazu stellt sich aber auch die Frage, wie Nutzer*innen anderweitig vor Defamierung, Hass im Netz oder auch Falschinformation geschützt werden können.

Susanne Kopf, Assistenzprofessorin am Institut für Englische Wirtschaftskommunikation

zurück zur Übersicht