Wie das Bestreben von Webforen, die Redefreiheit zu moderieren, zu Verschwörungstheorien über die Unterdrückung von Stimmen führte.
Rund um das Konzept des „Shadowbans“ braut sich ein Zensur-Narrativ zusammen. Darunter versteht man die unbeabsichtigte Sperrung eines Benutzers auf einer sozialen Plattform.
In den letzten Jahren hat das Wort „Shadowban“ ein Eigenleben entwickelt und sich vom Synonym für eine bestimmte Moderationstechnik zu einer Abkürzung für alles Mögliche entwickelt, von tatsächlicher Herabstufung bis hin zu unbegründeten Verschwörungstheorien über Leute aus dem Silicon Valley, die versuchen, die Stimme von Benutzern zu unterdrücken.
„‚Shadowbanning‘ klingt ziemlich ruchlos, und ich denke, das ist ein Teil seines Erfolgs im öffentlichen Diskurs“, sagte Stephen Barnard, außerordentlicher Professor an der St. Lawrence University, dessen Forschung sich auf die Rolle von Medien und Technologie bei der Förderung des sozialen Wandels konzentriert. „Es hat den Anschein einer gesichtslosen Einheit und ist verschwörerisch. Es enthält eine mehr oder weniger explizite Behauptung, dass diese liberalen Tech-Manager aus Kalifornien uns zensieren und sich verschwören, um ihre progressive Agenda in der gesamten amerikanischen Politik durchzusetzen.“
Die anhaltende Kontroverse – und der Mangel an Transparenz – rund um Shadowbans weist auf eine Spannung hin, die jedem Versuch, eine globale Community aufzubauen, innewohnt: Die meisten von uns wünschen sich eine Art Mäßigung, doch darüber, wo die Grenzen gezogen werden sollten, gehen die Meinungen weit auseinander.
Was sind Shadowbans?
Shadowban blockieren Benutzer oder einzelne Inhalte, ohne dass der betreffende Benutzer davon erfährt. Diese Moderationstechnik wurde zuerst in Bulletin Boards und frühen Webforen populär gemacht. Für einen Shadowban-Benutzer funktioniert die Site weiterhin wie gewohnt – er kann weiterhin Beiträge verfassen und sich mit den Beiträgen anderer Benutzer befassen –, für andere Benutzer hingegen scheint der Benutzer verstummt zu sein.
Während ein explizit gesperrter Benutzer wahrscheinlich ein neues Konto erstellt und weiterhin Beiträge veröffentlicht, könnte ein Shadowbanner-Benutzer zu dem Schluss kommen, dass andere Leute sich einfach nicht dafür interessieren, was er zu sagen hat. Mit der Zeit, so die Überlegung, verlieren sie das Interesse und verschwinden.
In diesem Sinne sind Shadowbans lediglich die technische Umsetzung einer Strategie, die von Forenbenutzern schon lange verwendet wird: „ Füttere den Troll nicht! “. Der zusätzliche Vorteil besteht darin, dass man sich nicht auf die Zurückhaltung der Benutzer verlassen muss.
So erkennen Sie, ob ein Konto einem Shadowbann unterliegt
Eine geringere Post-Interaktion für ein Konto, wie etwa weniger Likes, Kommentare und Aufrufe als zuvor, könnte ein Anzeichen für einen Shadowban sein. Auch wenn Follower oder Abonnenten eines Kontos melden, dass sie in ihrem Feed keine neuen Posts oder Benachrichtigungen von diesem Konto sehen, könnte dies ein weiteres Anzeichen sein.
Das Center for Democracy and Technology veröffentlichte 2022 einen Bericht mit dem Titel Shedding Light on Shadowbanning . Darin wurden die Ergebnisse einer Umfrage unter 1.205 US-amerikanischen Social-Media-Nutzern vorgestellt, von denen 274 angaben, sie seien davon überzeugt, dass ihnen ein Shadowbann auferlegt wurde. Dies waren die häufigsten Anzeichen, die den Nutzern auffielen, als sie ihren Shadowban entdeckten:
Sarah Myers West, Postdoktorandin am AI Now Institute der New York University, befragte Nutzer, die im Vorfeld der Wahlen 2016 Erfahrungen mit Inhaltsmoderationen machten. Dabei stellte sie fest, dass viele Nutzer einen Zusammenhang zwischen dem, was sie als Online-Zensur bezeichneten, und algorithmischer Intervention sahen.
„Meine Definition von Inhaltsmoderation könnte lauten: ‚Wurde ein Beitrag, Foto oder Video, das Sie gepostet haben, entfernt oder wurde Ihr Konto gesperrt?‘“, sagte West. „Aber viele Leute würden Inhaltsmoderation etwa so interpretieren: ‚Ich habe viele Follower verloren und habe keine wirklich gute Erklärung dafür – aber ich denke, das ist ein offener Versuch von jemandem auf dieser Plattform, mich dicht zu machen.‘ Oder: ‚Meine Beiträge erhalten normalerweise ein gewisses Maß an Engagement, aber ich habe zu diesem Thema gepostet und plötzlich ist meine Anzahl an Likes vernachlässigbar.‘“
Das soziale Engagement kann natürlich aus Gründen schwanken, die nichts mit Zensur zu tun haben. Aber West, der auch einer der Organisatoren der Santa Clara Principles on Transparency and Accountability in Content Moderation ist, sagte, die Undurchsichtigkeit der Moderationssysteme und algorithmischen Feeds lasse die Nutzer darüber spekulieren, wie das alles funktioniert.
Eine verbreitete Theorie unter den Nutzern war, dass soziale Plattformen gezielt darauf abzielten, ihre Ansichten zu unterdrücken. Andere glaubten, dass ihre Beiträge aktiv sabotiert würden, indem andere Nutzer gezielt Beiträge als Verstöße gegen die Plattformrichtlinien kennzeichnen und so Mechanismen auslösen, die die Reichweite eines Beitrags einschränken.
„Und dann waren manche Leute einfach wirklich ratlos“, sagte West. „Sie wussten einfach nicht oder verstanden nicht, was los war, und sie wollten einfach nur eine Erklärung, wie sie ihr Verhalten in Zukunft ändern könnten, damit sie nicht auf solche Probleme stoßen.“
Welche Social-Media-Sites verwenden Shadowbanning?
Obwohl es Spekulationen gibt, dass Shadowbanning auf beliebten Websites wie Facebook, Instagram, Twitter und TikTok vorkommt, erkennen Social-Media-Unternehmen Shadowbanning im Allgemeinen nicht als offizielle Praxis an. Sie verweisen in der Regel auf Rankingsysteme, sich ändernde Algorithmen oder technische Fehler als Reaktion auf Behauptungen, dass bestimmte Arten von Inhalten oder Inhalte bestimmter Benutzer heimlich stummgeschaltet werden.
Facebook zum Thema Shadowbanning
In einem Podcast-Interview im August 2022 sagte Meta-CEO und Facebook-Gründer Mark Zuckerburg, dass Facebook keine Shadowbanning-Richtlinie habe, räumte aber ein, dass sich der Begriff wahrscheinlich auf „Degradierungen“ beziehe. „Degradierung“ bedeutet in diesem Sinne, dass ein Beitrag anderen Benutzern weniger wahrscheinlich angezeigt wird, weil er aus irgendeinem Grund markiert wurde, z. B. weil er Fehlinformationen enthält oder schädlich ist. Diese Taktik ist jedoch nicht neu; Facebook baut seit mehreren Jahren darauf auf.
Um Feeds weniger Spam zu machen, setzte Facebook 2017 ein maschinelles Lernmodell ein , um die Reichweite von Personen und Seiten zu identifizieren und zu reduzieren , die auf „Engagement-Köder“ setzen. Gängige Beispiele dieser Art sind Aufforderungen wie „ Teilen Sie es mit einem kaffeesüchtigen Freund“, „ Liken Sie , wenn Sie lokale Cafés unterstützen“ und „ Taggen Sie jemanden, mit dem Sie auf unserer Terrasse abhängen möchten“.
Facebook beschränkt nicht nur die Reichweite einzelner Posts, die diese Strategie anwenden, sondern kündigte auch an, Wiederholungstäter auf Seitenebene „herabzustufen“.
Dieses maschinelle Lernmodell wurde inzwischen um Kommentare unter Posts erweitert. Und im Jahr 2019 begann Facebook auch damit, Engagement-Bait-Werbung im Audioinhalt von Videos zu kennzeichnen.
Laut der Dokumentation von Facebook selbst teilt die Plattform den Herausgebern nicht mit, ob ihre Seiten herabgestuft wurden und warum. Die Plattform befürchtet, dass sich die Benutzer bei der Suche nach Workarounds auf bestimmte Details verlassen könnten – eine Sorge, die an die Anfangszeit der Shadowbans erinnert.
Um Moderatoren dabei zu helfen, die Verbreitung anstößiger Inhalte zu verlangsamen und die Wahrscheinlichkeit von Gegenreaktionen zu verringern, ermöglicht Facebooks Moderationsansatz, dass blockierte Beiträge für die direkten Kontakte eines Benutzers sichtbar bleiben. Anstatt also ganz allein gegen Windmühlen zu kämpfen, können Sie dies in einer Echokammer von Menschen tun, die genau wie Sie sind.
Dies könnte ein notwendiges Zugeständnis sein, um den Benutzer effektiv davon abzuhalten, seinen Status herauszufinden – die Kernidee des Shadowbanning. Und letztendlich ist es wahrscheinlich effektiver, da Benutzer verdächtigt werden, schlauer zu sein, als die Befürworter des Shadowbanning ihnen zutrauen.
Instagram zum Thema Shadowbanning
Instagram scheint ein ähnliches „Degradierungssystem“ wie Facebook anzuwenden. Benutzer berichten von weniger Engagement für ihre Instagram-Posts, nachdem sie gegen die Gemeinschaftsrichtlinien, Empfehlungsrichtlinien oder Nutzungsbedingungen der Plattform verstoßen haben. Man geht davon aus, dass Konten, die unangemessene Inhalte oder Fehlinformationen posten , Bot-Verhalten nachahmen, wie z. B. Hashtags spammen oder schnell anorganisches Engagement gewinnen oder wiederholt gemeldet werden, wahrscheinlich einen Rückgang des Engagements verzeichnen werden.
Twitter zum Thema Shadowbanning
Auf der FAQ-Seite „Mythen entlarven“ von Twitter heißt es unverblümt: „Einfach gesagt, wir führen kein Shadowban durch! Niemals.“ Außerdem wird auf einen Blogbeitrag aus dem Jahr 2018 verwiesen , in dem weiter erklärt wird, dass Shadowbans nicht auf der Grundlage „politischer Ansichten oder Ideologien“ erfolgen, sondern dass es ein System gibt, das Tweets und Suchergebnisse „nach aktueller Relevanz“ bewertet.
Das bedeutet, dass Benutzer eher Inhalte von Personen sehen, an denen sie interessiert sind oder die an Popularität gewinnen und häufig geteilt werden. Mit dieser Vorgehensweise sollen auch „bösgläubige Akteure angesprochen werden, die gesunde Gespräche manipulieren oder beeinträchtigen wollen “, indem ihre Inhalte niedriger eingestuft werden.
Shadowbans vs. Algorithmusänderungen
Wenn eine Plattform öffentlich Änderungen am Ranking-Algorithmus ihres Feeds ankündigt, erscheint es etwas weit hergeholt, die Folge als „Shadowban“ zu bezeichnen.
„Ich glaube nicht, dass der Begriff [Shadowban] immer dasselbe bedeutet“, sagte Barnard. „Oft wird der Begriff verwendet, um subtilere [Strategien] zu beschreiben, die von Social-Media-Unternehmen als ‚Downranking‘ bezeichnet werden.“
Facebooks Bemühungen, die Verbreitung von Engagement-Bait einzuschränken, sind ein typisches Beispiel für Downranking. In einem im März 2021 veröffentlichten Medium-Beitrag räumte Nick Clegg, Präsident von Meta Global Affairs, ein, dass der News Feed Inhalte mit übertriebenen Überschriften (Clickbait) sowie Inhalte von Seiten von Websites, die „im Vergleich zum Rest des Internets einen extrem unverhältnismäßig großen Anteil ihres Datenverkehrs von Facebook generieren“, herabstuft.
Seiten herabzustufen, die überproportional viel Facebook-Traffic anziehen, scheint auf den ersten Blick zwielichtiger, aber die Logik dahinter ergibt Sinn, wenn man bedenkt, wie Nachrichtenseiten in sozialen Netzwerken um Aufmerksamkeit konkurrieren. Wenn eine Geschichte wahr ist und ihre Überschrift zutreffend, wird sie von einer Reihe glaubwürdiger Nachrichtenagenturen schnell bestätigt. Infolgedessen teilen Benutzer mehrere Versionen derselben Geschichte aus verschiedenen, konkurrierenden Medien. Wenn eine Geschichte hingegen auf fragwürdigen Quellen beruht oder ihre Überschrift Behauptungen enthält, die durch die Berichterstattung nicht gestützt werden, kann der Artikel zu einer dauerhaften Exklusivmeldung werden – der einzige verfügbare Link, um die Nachricht zu verbreiten.
Insgesamt gesehen kann also eine überproportionale Abhängigkeit von viralen Facebook-Hits im Vergleich zu anderen Traffic-Quellen ein recht guter Hinweis darauf sein, dass eine Site bereit ist, mit der Wahrheit zu spielen – obwohl es durchaus möglich ist, dass auch seriöse Veröffentlichungen in das Netz geraten.
Auch wenn die Plattform keine klaren Vorgaben dazu macht, wo genau die Grenze verläuft, ist den meisten Websites, die in den Bereich „extrem unverhältnismäßigen“ Facebook-Verkehrs geraten, vermutlich klar, dass sie den Algorithmus tatsächlich aktiv manipulieren.
Warum Shadowbans umstritten sind
Das Downranking-System, das Shadowbanning verwendet, könnte entscheidend sein, um die Verbreitung von Fehlinformationen zu verhindern. Gleichzeitig führt jedes geheime, groß angelegte Moderationssystem zwangsläufig zu Frustrationen – und direkte Dialoge von Social-Media-Unternehmen als Reaktion auf Shadowbanning-Vorwürfe haben den wachsenden Diskurs nicht gestoppt.
Schon 2018 haben konservative Politiker Shadowbanning als gezielte Methode zur Unterdrückung politischer Inhalte angeprangert, mit denen Silicon-Valley-Leute nicht einverstanden sind. Und 2021 kam es zu einem erneuten Aufflammen der Anschuldigungen, als Facebook den einst undenkbaren Schritt unternahm, den mächtigsten gewählten Staatschef der Welt von seiner gleichnamigen Plattform und der Tochtergesellschaft Instagram zu verbannen , nachdem ein gewalttätiger Mob von Donald Trump-Anhängern das US-Kapitol gestürmt hatte.
Plattformen wie Twitter, YouTube, Reddit, Twitch, TikTok, Snapchat und Discord folgten diesem Beispiel und sperrten eine Reihe von Konten und Gruppen, die mit dem amtierenden Präsidenten in Verbindung standen oder an der Verbreitung von Falschinformationen über die Präsidentschaftswahlen 2020 beteiligt waren. Eine Reihe hochrangiger Republikaner bezeichnete dies als den neuesten Trick einer angeblichen Verschwörung von Technologieunternehmen, um konservative Stimmen zum Schweigen zu bringen.
Um es klar zu sagen: Es gibt keinen Grund, dieser Behauptung zu glauben, dass politische Angriffe gezielt durchgeführt werden. Ein Bericht des Stern Center for Business and Human Rights der New York University aus dem Jahr 2021 bezeichnet die Vorstellung, dass Social-Media-Unternehmen Konservative unfair angreifen, als „eine Lüge, für die es keine verlässlichen Beweise gibt“.
Und in Moderationssystemen, in denen jeder einen Grund zur Unzufriedenheit hat, bietet die Geheimhaltung der entsprechenden Richtlinien einen fruchtbaren Boden für die Verbreitung von Verschwörungstheorien.
Plattformen wie Instagram und TikTok sind auch mit Gegenreaktionen von Social-Media-Influencern und Content-Erstellern konfrontiert, die den Unternehmen vorwerfen, sie würden Shadowbanning unfair und unverhältnismäßig einsetzen, um marginalisierte Gruppen zum Schweigen zu bringen.
The Intercept berichtete im März 2020, dass es interne TikTok-Dokumente erhalten habe, aus denen hervorgeht, dass das Unternehmen „Moderatoren angewiesen hat, Beiträge von Benutzern zu unterdrücken, die als zu hässlich, arm oder behindert für die Plattform gelten“. Die deutsche Website Netzpolitik berichtete 2019 über ähnliche Richtlinien. Als Reaktion auf die Berichterstattung sagte ein TikTok-Sprecher gegenüber The Intercept , die Richtlinien seien Teil einer Mobbing-Präventionsmaßnahme und würden nicht mehr angewendet. Quellen sagten der Verkaufsstelle jedoch, sie seien mindestens bis 2019 in Gebrauch gewesen, und in den Dokumenten selbst werde Mobbing nicht erwähnt, was darauf hindeutet, dass die Begründung darin bestehe, „neue Benutzer zu halten und die App auszubauen“.
Angesichts der wachsenden Dynamik der Black-Lives-Matter-Bewegung im Jahr 2020, insbesondere in den sozialen Medien, kritisierten auch schwarze Kreative die Plattformen und sagten, sie würden die Reichweite ihrer Nachrichten in Benutzer-Feeds und Suchanfragen einschränken.
Ein TikTok-Nutzer sagte gegenüber Time : „Ich war draußen, um zu protestieren und [Videos] zu teilen, und als ich zu meinen normalen Inhalten zurückkehrte, sah ich, dass meine Videos von Tausenden, wenn nicht Hunderttausenden Aufrufen auf kaum 1.000 zurückgingen. Da dies das unmittelbare Folgeereignis nach meinen Black-Lives-Matter-Posts war, konnte ich darin kaum etwas anderes als ein Shadowbann erkennen.“
Geschichte des Shadowbanning
Shadowbanning begann auf herkömmlichen Online-Message Boards mit einer klaren Devise: Entweder Ihre Beiträge werden blockiert oder nicht.
Duane Roelands moderierte Ende der 1980er und Anfang der 1990er Jahre ein Message Board namens Quartz BBS, eine Sammlung von Chatrooms, die auf einem Server der Rutgers University gehostet wurden. Um zu verhindern, dass die Debatten unnötig hässlich wurden, sperrten Roelands und seine Moderatorenkollegen Benutzer entweder vorübergehend oder dauerhaft, je nach Verstoß.
„Beleidigendes Verhalten kann alles sein, von ständigem Schroffsein und Widerwärtigsein bis zu Störenfrieden in einem Raum, in dem es um ernste Themen wie sexuelle Orientierung, Geschlechtsidentität oder Politik geht“, sagte er. „Unsere Verhaltensrichtlinien laufen im Grunde darauf hinaus: ‚Seien Sie kein Idiot.‘“
Der traditionelle Ansatz des Shadowbannings in Message Boards ist sinnvoll, wenn die Beiträge chronologisch bereitgestellt werden. Moderne soziale Netzwerke – die Inhalte normalerweise über algorithmisch kuratierte Feeds bereitstellen – können jedoch ähnliche Ergebnisse durch subtilere Mittel erzielen, die die Reichweite bestimmter Benutzer einschränken, ohne deren Inhalte vollständig zu blockieren.
Ein Ansatz des modernen Shadowbannings besteht darin, die Beiträge eines Benutzers von den Auffindbarkeitsfunktionen auszuschließen. Dieser Ansatz wurde erstmals online übernommen und schlug in den 2010er Jahren auf Plattformen wie Twitter, Reddit und insbesondere Instagram große Wellen.
Im Jahr 2017 bemerkten zahlreiche Fotografen, Blogger und Influencer einen deutlichen Rückgang der Interaktionen mit ihren Instagram-Posts. Damals berichteten „mehr als ein Dutzend“ Instagram-Nutzer dem Tech-Reporter Taylor Lorenz, dass die Posts von Shadowbannern „in Hashtag-Suchen oder auf der Registerkarte „Suchen und Entdecken“ von Instagram nicht angezeigt würden.
Instagram teilte diesen Benutzern nicht mit, was sie falsch gemacht hatten, aber Lorenz verwies auf die Verwendung von Spam-Hashtags und nicht autorisierte Automatisierungstools als Verhaltensweisen, die wahrscheinlich die Änderungen ausgelöst haben.
Die von Lorenz gemeldeten Sperren unterscheiden sich technisch gesehen deutlich von herkömmlichen Shadowban, weisen aber auch wichtige Gemeinsamkeiten auf. Die Strategie zielte auf Konten nach nicht offengelegten Kriterien ab, und abgesehen von einem rapiden Rückgang der Reichweite hatten die Benutzer keine Möglichkeit herauszufinden, warum – oder ob – sie von den Entscheidungen der Plattform betroffen waren.
Diese Geheimhaltung scheint der einzige rote Faden zwischen den Techniken – real und eingebildet – zu sein, auf die sich Benutzer beziehen, wenn sie von Shadowbans sprechen.
„Wir haben schon früh gemerkt, dass die Leute immer einen Weg finden würden, den Buchstaben des Gesetzes zu befolgen und gleichzeitig den Geist des Gesetzes zu verletzen, wenn man klar definiert, was akzeptables Verhalten ist und was nicht“, sagte Roeland. „Dieses Verhalten hat sich online bis heute gehalten, und es gab nie wirklich eine gute Lösung dafür.“
Was muss passieren, damit die Shadowban-Erzählung verschwindet?
Chris Stedman, Autor von „IRL: Finding Realness, Meaning, and Belonging in Our Digital Lives“ , betrachtet die Debatte über Shadowban als Symptom einer allgemeinen Angst vor der Macht, die Social-Media-Plattformen über unsere Möglichkeit der Selbstdarstellung haben.
„Früher war das Internet ein abgegrenzter Raum, den wir betreten und verlassen konnten“, sagte Stedman. „Heute verlagert sich ein immer größerer Teil dessen, was ich ausmacht – wie ich ein Gefühl von Verbundenheit und Gemeinschaft finde und mich ausdrücke – in digitale Räume.“
Barnards Ansicht nach spielt der Mangel an Einblicken in die Funktionsweise sozialer Netzwerke eine Rolle – insbesondere unter Konservativen, die tendenziell weniger Vertrauen in Medieninstitutionen haben. Zusammen bilden diese Faktoren einen perfekten Sturm, bei dem jeder Social-Media-Beitrag, der keine Wirkung zeigt, zu einem weiteren Beweis für eine breit angelegte Unterdrückungsmaßnahme wird und nicht nur zu einem gescheiterten Versuch, viral zu gehen.
„Es wird zu einer scheinbar plausiblen Erklärung, wobei natürlich all die Wege außer Acht gelassen werden, auf denen diese Plattformen ihnen dabei helfen, ihre Botschaften zu verbreiten – was natürlich die tiefe Ironie der ganzen Sache ist“, sagte Barnard.
Und hinter all dem verbirgt sich ein Körnchen Wahrheit: Soziale Netzwerke zensieren Konservative nicht aus ideologischen Gründen, sondern versuchen, die Verbreitung von Fehlinformationen einzuschränken – insbesondere über Wahlen und Gesundheitsthemen wie Covid-19.
Der Begriff Shadowbanning ist mittlerweile vage. Und da die meisten Menschen Shadowban als Kernstück eines Arguments gegen böswillige Absichten kennengelernt haben, ist es schwer vorstellbar, dass der Begriff seine ursprüngliche Bedeutung wiedererlangen könnte.
Und auf einer gewissen Ebene waren Shadowban vielleicht von Anfang an nicht so toll. Adrian Speyer, Community-Leiter beim Forensoftwareanbieter Vanilla Forums , fordert die Benutzer der Plattform seines Unternehmens auf, Shadowban nur als letztes Mittel zu verwenden.
„Wenn jemand in Ihrer Gemeinde nicht willkommen ist, sollten Sie ihn vom Gelände begleiten“, sagte Speyer.
Seiner Ansicht nach bieten Shadowban einen einfachen Ausweg aus schwierigen, aber wichtigen Diskussionen über Gemeinschaftsstandards. Diese Gespräche können dazu beitragen, ein stärkeres Verantwortungsbewusstsein zu fördern und Benutzer zu befähigen, Moderatoren bei der Einhaltung dieser Standards zu unterstützen.
Wenn Roelands auf seine Zeit als Moderator eines Bulletin Boards zurückblickt, sieht er Shadowbans auch anders. Da es keine Feedbackschleife gibt, die direkt mit einer bestimmten Aktion zusammenhängt, haben die Benutzer nie die Möglichkeit zu erfahren, was sie falsch gemacht haben. Aber was vielleicht noch wichtiger ist: Da die Leute normalerweise merkten, wenn ein störender Benutzer plötzlich verschwand, entstand eine Umgebung, in der sonst anständige Community-Mitglieder versuchten, Benutzer, die mit einem Shadowban belegt wurden, öffentlich zu demütigen.
„Es hat unsere Gemeinschaft gemeiner gemacht“, sagte Roelands. „Es ist wie der Unterschied zwischen wiederherstellender und vergeltender Gerechtigkeit. Shadowban machen die Leute nicht zu besseren Mitgliedern der Gemeinschaft.“
Auf jeden Fall beginnen die sozialen Plattformen zu erkennen, dass Intransparenz ein echtes Problem darstellt.
Das unabhängige Aufsichtsgremium von Meta überprüft Inhaltsentscheidungen von Facebook und Instagram und veröffentlicht seine Entscheidungen und Empfehlungen im Transparenzzentrum des Unternehmens .
Auch Instagram versucht, seine Nutzer darüber auf dem Laufenden zu halten, wie ihre Beiträge empfohlen oder moderiert werden, indem es im Oktober 2021 den Account-Status einführt. Mit dieser Funktion können professionelle Accounts auf Instagram sehen, ob sie Inhalte gepostet haben, die gegen die Community-Richtlinien der Plattform verstoßen, und ob diese „ für die Empfehlung an Nicht-Follower an Orten wie Explore, Reels und Feed Recommendations infrage kommen“.
Twitter hat auch seine Moderationsrichtlinien im Hinblick auf mehr Transparenz überdacht. Das Unternehmen kündigte im September 2022 an, dass es die Teilnehmerbasis des Programms erweitern und die Sichtbarkeit von Birdwatch-Notizen in öffentlichen Tweets, die jetzt als Community Notes bekannt sind, erhöhen werde. Im Dezember 2022 wurden Community Notes weltweit für alle Twitter-Benutzer veröffentlicht.
Auch wenn diese Funktionen die Moderationsprobleme der Unternehmen wahrscheinlich nicht dauerhaft lösen werden, scheinen die Social-Media-Giganten doch entschlossen zu sein, ihren Nutzern mehr Einblick in die Gründe für die Herabstufung oder Markierung von Beiträgen zu geben.
Und das ist zumindest ein Anfang.