Schattenbann
Der Begriff Schattenbann (englisch shadow banning, auch: stealth banning, ghost banning, comment ghosting) bezeichnet eine Form der Informationskontrolle durch das Verstecken von Inhalten vor der Allgemeinheit, mit Ausnahme der gebannten[wp] Person, die diese Inhalte erzeugt hat und dieses Verstecken der selbsttätig publizierten Inhalte im Regelfall gar nicht bemerkt. Diese Art der Informationskontrolle kann als Kryptozensur 2. Ordnung charakterisiert werden.
Entstehung
Die ersten Dienste, die Schattenbann anwandten, waren die US-amerikanischen Online-Dating-Dienste[wp]. Das wichtigste Kapital solcher Dienste ist die Anzahl der Nutzer, weshalb die Dienste miteinander in permanentem Wettbewerb um die Gewinnung einer möglichst großen Nutzerschaft standen. Insbesondere neue Dienste waren mit den spezifischen Problemen eines Neuanfangs konfrontiert und waren gezwungen Methoden zu entwickeln, um so schnell und so kostengünstig wie möglich die größtmögliche Zahl von Nutzern anzuwerben, weil dies von existenzieller Notwendigkeit für das Fortbestehen des Projekts war. Die probateste Methode zur Anwerbung neuer Nutzer war die Erstellung von Fake-Benutzerkonten bei den großen Diensten, um bei den dortigen Benutzern für den eigenen Dienst zu werben, was den etablierten Diensten missfiel, weil dieselben weder Kunden verlieren wollten noch die Belästigung ihrer Klientel durch aufdringliche Werbung dulden konnten. Besonders die Dienste, bei denen die Mitgliedschaft kostenlos war, hatten große Probleme mit Werbern. Die Werber-Profile waren zwar relativ leicht zu erkennen, aber das schlichte Sperren oder Löschen dieser Profile erwies sich als fast wirkungslos, weil sich die dahinter stehenden Werber sofort wieder neue Konten erstellten, was an sich auch wieder eine zusätzliche Arbeitsbelastung für den betroffenen Dienst darstellte. Also kam man auf die Idee, zuerst einmal die Versendung von Werbenachrichten zu verzögern, um die Schadwirkung der Werber zu mildern. Diese Taktik wurde immer weiter verfeinert, weil das dabei verfolge Ziel darin bestand, den Werber nicht feststellen zu lassen, dass seine Aktivitäten vom System erkannt wurden, damit der Werber möglichst viel Zeit und Energie in seine wirkungslose Tätigkeit investierte. Die Erfindung des Schattenbanns lag in einer ökonomischen Notwendigkeit und nicht in einer politischen Zensurabsicht begründet.
Wegen der Gleichheit des Funktionsprinzips von Online-Dating-Diensten und so genannten Sozialen Netzwerke sind dort häufig dieselben Fachleute beschäftigt, die sich untereinander kennen und gelegentlich auch von einem Arbeitgeber zum nächsten wechseln bzw. von größeren Diensten abgeworben werden. So konnte sich diese Methode und die dazugehörige Technik auf andere Dienste wie YouTube und Facebook ausbreiten, wo sie aber nicht nur rein wirtschaftliche Zwecke dient.
Funktionsweise
Beim Schattenbann werden die Eingaben des Nutzers meistens nicht gelöscht, wie bei einer konventionellen Zensur. Die Daten werden also vom Nutzer erzeugt, abgespeichert und bleiben erhalten, allerdings liegt es in der Natur dieser digitalisierten Inhalte, dass dieselben zwar maschinenlesbar[wp] sind, aber nicht ohne weiteres von Menschen gelesen oder gesehen werden können. Um digitale Inhalte für Menschen rezipierbar zu machen, müssen sie dekodiert[wikt] werden und auf einem Endgerät, beispielsweise einem Flachbildschirm ausgegeben werden. Bei jedem Seitenaufbau wird also eine Datenbank abgerufen, und die Daten werden nach vielfältigen Kriterien für den Nutzer aufbereitet. Die dieser Aufbereitung, die Rendering[wp] genannt wird, zugrunde liegenden Algorithmen[wp] sind dafür entscheidend, welcher Nutzer welche Inhalte zu sehen bekommt. Wenn der Schattenbann sich auf einen bestimmten Nutzer fokussiert, weil dieser wegen seines auffälligen Verhaltens aufgefallen ist, weshalb dessen Inhalte für die Allgemeinheit unsichtbar gemacht werden sollen, dann würde die Kryptozensur dadurch aktiviert, dass dem Konto dieses Nutzers ein entsprechendes so genanntes Flag[wp] zugewiesen würde. Beim Rendering würde die Software beispielsweise eine Liste von Kommentaren abrufen, die einem Video auf YouTube zugeordnet sind, welches jemand sich ansehen möchte, während diese Liste abgearbeitet wird und Kommentar für Kommentar angezeigt wird, liest die Software bei jedem Kommentar notwendigerweise auch die Information aus, welcher Nutzer ihn geschrieben hat, weil nur so der Nutzername und die Verlinkung auf sein Profil dem Kommentar hinzugefügt werden, wie es allgemein üblich ist. Bei der Abfrage des Erzeugerprofils liest die Software nun auch gegebenenfalls die vorhandene Flag aus und stellt somit fest, dass der Erzeuger des Kommentars gebannt wurde, womit, wenn der Abrufer, für den diese Seite gerendert wird, identisch mit dem Erzeuger des Kommentars ist, auch der Kommentar gerendert wird, andernfalls nicht. So sieht der Gebannte seinen eigenen Kommentar, während dieser für andere Nutzer unsichtbar bleibt. Der Erzeuger des Kommentars sieht ihn, weshalb er keinen Anlass hat, misstrauisch zu werden oder Beschwerde einzulegen, womit er auch keine Maßnahmen gegen die Bannung ergreifen kann, der er unterliegt, denn das System informiert ihn in keiner Weise darüber, dass er gebannt wurde.
Auslöser für Schattenbann
Es gibt viele Arten in das Fadenkreuz der Kryptozensoren zu geraten.
- Eigene Aktivitäten: Man tut etwas, was den Interessen des Dienstanbieter entgegensteht.
- Denunziation[wp]: Dritte beschweren sich beim Dienstanbieter über Inhalte oder Verhaltensweisen.
- Kontaktschuld: Man hat mit (zu vielen) Nutzern interagiert, die ihrerseits gebannt sind oder waren.
- Blocklisten: Man ist außerhalb des Dienstes auf eine Blockliste geraten, die auch von diesem Dienst genutzt wird.[1]
- Blockierung durch andere Nutzer (zu viele) andere Nutzer des Dienstes haben einen auf ihre persönliche Blockliste gesetzt.
Bei all diesen Anlässen ist zu bedenken, dass die Gründe, warum der Diensteanbieter einen Nutzer oder einen Inhalt dem Schattenbann unterwirft, oft keine politischen, sondern wirtschaftliche Gründe sind, genau wie bei der anlassbezogenen Zensur. Auch wenn der Auslöser eher politischer Natur ist, weil beispielsweise die im Grunde staatliche Amadeu-Antonio-Stiftung einen Inhalt wegen angeblicher Hassrede denunziert hat, so reagiert der Dienstanbieter darauf aus rein wirtschaftlichen Gründen, weil das Netzwerkdurchsetzungsgesetz ihn mit einem Bußgeld von bis zu 5 Millionen Euro bedroht.
Methoden
Es gibt inzwischen eine große Anzahl von Methoden des Schattenbanns. Einige der inzwischen bekannt gewordenen Methoden werden im Folgenden erläutert.
Nachrichtenunterdrückung
Private Nachrichten, die innerhalb des Dienstes übermittelt werden, werden auf verschiedenste Art behindert. Im einfachsten Fall werden sie nicht zugestellt, was in den meisten Sozialen Netzwerken aber auffällt, es sei denn, dass der Kontakt zwischen den beteiligten Benutzern nie bestanden hatte, und man auch über keinen zweiten Kontaktweg zu der Person verfügt, womit man auch keine Möglichkeit zur Überprüfung der Zustellung der Nachricht besteht. Das ist in den meisten Online-Dating-Diensten (s.o.) der Fall und bei Initiativkontakten in Facebook, womit soziale Vernetzung behindert werden kann. Man kann dem Versender anzeigen, dass die Nachricht ausgeliefert wurde, ohne aber den Empfänger zu benachrichtigen. Der Versender kann dann nicht unterscheiden, ob die Nachricht tatsächlich nicht ausgeliefert wurde, ob sie nur nicht gelesen wurde, weil keine Benachrichtigung erfolgte oder ob der Empfänger sie nur aus einem Grunde, die der Empfänger selber zu verschulden hat, nicht gesehen hat. Weiterhin kann man die Versendung der Nachricht verzögern, um zeitnahe Kommunikation zu verhindern und so die Wirksamkeit der übermittelten Nachricht herabzusetzen, die dann beispielsweise wegen einer inzwischen vergangenen Zeitspanne veraltet ist, wenn sie wahrgenommen wird.
Benachrichtigungsmanipulation
Die Benachrichtigungen, die der Nutzer normalerweise über neue Inhalte (Videos, Beiträge, Reaktionen, persönliche Nachrichten) bekommen würde, können ganz oder teilweise ausfallen, verzögert werden, oder deren Aktivierung kann erodieren. Und natürlich wird man niemals auf YouTube die Nachricht bekommen: "Der Kanal Klimaskeptiker, den Du seit Tag und Jahr abonniert hast, ist anlässlich einer Denunziation[wp] durch die Amadeu-Antonio-Stiftung gelöscht worden." Das heißt, alle Ereignisse, die im weitesten Sinne als Zensur gelten könnten, werden, soweit wie möglich, verschwiegen. Die Löschung eines Benutzerkontos muss also von den Abonnenten selbst festgestellt werden, weil man bereits für ungewöhnlich lange Zeitspanne keine Benachrichtigungen mehr über neue Videos erhalten hat. Die Unterrichtung von Nutzer über den Wegfall von Quellen, für die sie Benachrichtigungen aktiviert hatten, wäre im Normalfall angebracht. Keiner der Dienste hat diese Unterrichtung jedoch jemals erwogen, obwohl eine solche mit geringem Aufwand zu programmieren wäre, und die Nutzer immer für solche Informationen dankbar wären.
Einschränkung von Weiterleitungen
Weiterleitungen von Inhalten, auch Teilen genannt, kann scheinbar allgemeingültigen Einschränkungen unterliegen, die aber tatsächlich spezifizierbar sind. Auch diese Kryptozensurmethode zielt darauf ab, die Informationsleistung kritischer Nutzer herabzusetzen und damit einhergehend die individuelle Fähigkeit zur Publizierung zu begrenzen. Solche Maßnahmen lassen sich, wenn sie allgemeiner Art sind, auch gegenüber der Gesamtheit der Nutzer und der Öffentlichkeit hervorragend rechtfertigen. Ein konkreter Beispielfall ist die Unmöglichkeit bei Facebook aus einer geschlossenen Gruppe heraus Inhalte zu teilen, was inner- und außerhalb Facebooks als Schutz der Privatsphäre begründet werden kann. Diese Zensurmaßnahme kann jedoch umgangen werden, weil jeder Nutzer die Inhalte auf seinen eigenen Rechner kopieren und von dort aus erneut publizieren kann. Die Weiterleitung ist dadurch nur aufwendiger, wird aber keinesfalls verhindert, was das vordergründig mit dem Privatsphärenschutz begründete Argumente widerlegt. Auch bei WhatsApp[wp] ist seit Anfang 2019 die Weiterleitung von Nachrichten von 20 auf 5 mit der Begründung der Missbrauchsprävention begrenzt worden, wobei auch in diesem Fall die Begründung nur einen Vorwand darstellt, denn tatsächlich kann man eine Nachricht, die man an fünf Personen weiter geleitet hat, theoretisch danach wieder an fünf andere Personen weiterleiten. Die Begrenzung der Zahl der weiterzuleitenden Inhalte stellt letztlich nur eine Behinderung der Informationsleistung der Nutzer und keinesfalls eine wirksame Maßnahme gegen tatsächlichen Missbrauch dar.[2] Diese Maßnahme bewirkt letztlich, die Verlangsamung der Geschwindigkeit, mit der die Bürger sicherstellen, dass die ihrerseits publizierten Inhalte sich möglichst weit verbreiten, wodurch die Überwacher des Systems sich selbst mehr Zeit verschaffen, um mit härteren Zensurmaßnahmen reagieren zu können.
Suchoptimierung
Es ist allgemein üblich geworden, dem Nutzer beim Suchen ohne dessen ausdrückliche Bitte Hilfeleistungen anzubieten. Kommerzielle Dienste stellen die Ausgabereihenfolge der Ergebnisse aufsteigend nach Höhe des Kaufpreises von Gütern oder Dienstleistungen ein, obwohl alle Nutzungsverhaltensstatistiken zeigen, dass dies die beliebteste und damit einhergehend die gewinnbringendste Reihenfolge ist. Stattdessen stehen die Reihenfolgen eher auf "beliebtestes/bestes Produkt", also eine äußerst subjektive und völlig unüberprüfbare Reihenfolge. Google beispielsweise verzichtet vollständig darauf, ein Sortierkriterium überhaupt anzugeben. Die Tatsache, dass Google die Ausgabe der Suchergebnisse personalisiert bzw. nach den individuellen Bedürfnissen der jeweiligen Nutzer ausrichtet, ist seit langem bekannt.[3] Die Dienste können diese Art der Suchoptimierung mit der Bereitstellung eines Kundendienstes begründen, unterlassen aber in jedem Falle die Veröffentlichung einer Dokumentation über die genaue Funktionsweise des Algorithmus. Unter dem Vorwand der Kundenfreundlichkeit können alle erdenklichen Aktivitäten durchgeführt werden, von politischem Nudging, über Marketing bis Shadow Banning. Twitter ist wegen der Ausübung dieser Praktiken schon 2017 heftig kritisiert worden.[4] Der Suchalgorithmus von YouTube hat zwar diverse Einstellmöglichkeiten, stellt aber nie die Ergebnisse bereit, die diesen Vorgaben entsprechen würden. Die tatsächlich die Ausgabereihenfolge bestimmenden Regeln werden nicht veröffentlicht. Beobachtungen lassen vermuten, dass der Algorithmus zwar die Entstehung von Hypes begünstigt, dass aber im Falle eines kritischen Videos, das gerade "viral geht", ein Moderatorenteam solche Fälle mit einem Bann belegt und diese Videos dann in der Suche benachteiligt und aus den Vorschlägen herausnimmt. Eine weitere Form der Suchoptimierung ist die Ausgabereihenfolge der Kommentare unter YouTube-Videos, die standardmäßig auf "Top-Kommentare" eingestellt ist, wobei die Kriterien zur Feststellung der vagen Kategorie Top nirgendwo näher erläutert werden. Die Alternative besteht darin, auf die Wiedergabe der Kommentar nach ihrer jeweiligen Aktualität umstellen, was, abgesehen von den gebannten Kommentaren, einigermaßen das demnach zu erwartende Ergebnis zeigt. Offensichtlich sind "Top-Kommentare" diejenigen, mit den meisten Positivbewertungen, sonst würden dort die Kommentare von AfD-Sympathisanten jeweils als erste angezeigt werden, weil dieselben häufig doppelt so viele Positivbewertungen erhalten, wie Kommentare in denen das Reizwort AfD nicht vorkommt.[5] Weniger unauffällig geht Google mit den Inhalten der Metapedia um, denn diese werden nämlich niemals angezeigt.[6]
Moderation von Kommentarspalten
Wie David Kriesel[wp] in seinem Vortrag über SpiegelMining[ext] anmerkte, hat natürlich jeder Publizist das Recht, die Kommentarfunktion unter einzelnen Artikeln abzuschalten.[7] Und man muss schon mit Methoden des Big Data[wp] vorgehen, um aufzuzeigen, dass diese Abschaltungen politische Methode haben und nicht nur dazu dienen für Ordnung und Sicherheit im Zusammenhang mit der Rezeption der eigenen Inhalte zu sorgen. Bei nachträglichen Abschaltungen der Kommentarfunktion, die übrigens auch von YouTube-Kanalbetreibern individuell für jedes einzelne Video vorgenommen werden können, wird natürlich auch die Sichtbarkeit aller zuvor dort getätigter Kommentare abgeschaltet.
Der eigentliche Schattenbann aber geschieht auf der Grundlage des individuellen Verhaltens jedes einzelnen Nutzers und des Inhalts einer jeweiligen Kommentare, was zur Folge haben kann, dass entweder die Kommentare eines bestimmten Nutzers auf dem ganzen Dienst nur für ihn selber sichtbar sind. Ein Kanalbetreiber bei YouTube bzw. ein Gruppenadministrator bei Facebook oder ein Nutzer bei Twitter hat einen anderen Nutzer auf seine Blockliste gesetzt und ahnt selber gar nicht, dass dieser geblockte Nutzer weiterhin Kommentare publiziert, ohne dass irgendjemand anderes dieselben sehen kann. Weder wird der Kanalbetreiber in der einschlägigen Hilfeauskunft des Dienstes irgendwelche konkreten Informationen zu den Methoden der Kryptozensur mitgeteilt, noch wird der geblockte Nutzer von irgendeiner Seite darüber informiert, dass er nun generell oder auf einem bestimmten Kanal oder von einem bestimmten Nutzer geblockt wurde. Was in vielerlei Hinsicht zuerst aussieht, wie eine legitime Maßnahme, um im eigenen Verantwortungsbereich Ordnung zu schaffen und Unruhestifter durch Blockierung zu bestrafen, entwickelt sich immer mehr zu einer Maßnahme der politischen Repression, besonders, weil die Blockierung unausgesprochen und die meisten zugrundeliegenden Algorithmen geheim bleiben. So wird ein Publizist, der einen einzelnen, seiner Meinung nach unpassenden Kommentar glaubte einfach gelöscht zu haben, zum unwissenden Mittäter der Kryptozensur, weil er effektiv damit über den betroffenen Nutzer den geheimen Bann ausgesprochen hat, obwohl er weder davon wusste oder ahnen konnte noch dies wollte. Geschulte Gesinnungstäter hingegen können in verschwörerischer Kenntnis der Regeln kritische Nutzer identifizieren, indem sie deren Kommentare regelmäßig anschwärzen und sie als Gruppe durch individuelle Blockierung gezielt unterdrücken, wodurch diese kritischen Nutzer auf dem Dienst in den irreversiblen Teufelskreis eines Negativ-Rankings kommen, das dazu führt, dass sie dienstweit dem Schattenbann unterliegen oder gar als unerwünschte Personen auf Blocklisten erfasst werden, die von einem Dienstanbieter mit anderen Diensten ausgetauscht werden. Hier besteht das "Geheimwissen" der machterhaltenden Kräfte in der einseitigen Kenntnis der ansonsten undokumentierten Algorithmen.
Manipulation von Kennzahlen
Jedes professionell agierende Unternehmen arbeitet mit Kennzahlen, um die massenhaft stattfindenden Vorgänge zu erfassen und Statistiken für das Management zur Verfügung stellen zu können. In digitalen Diensten der Informationsverarbeitung dienen diese Kennzahlen, in Verbindung mit den Algorithmen, die dem Betrieb des Dienstes zugrunde liegen, als sehr wirtschaftliches Steuerungsinstrument der Vorgänge im System. So kann beispielsweise die Kennzahl der Häufigkeit des Aufrufs eines Inhaltes dazu verwendet werden, seine Beliebtheit zu erkennen und diesen Inhalt zusammen mit der Schaltung von besser bezahlten Werbungen zu kombinieren, den Inhalt in so genannten Feeds und auf Portalseiten zu fördern, um so Teilhaber und Mitverursacher eines Hypes zu werden, der die Werbeeinnahmen begünstigt. Dieser Vorgehensweise liegt ein kommerzielles Motivs zu Grunde. Und das kommerzielle Interesse des Dienstes ist im Rahmen des herrschenden Zeitgeistes auch eine sakrosankte Begründung für derartige Mechanismen, der einerseits sehr wohl der unverdächtige Entstehungsgrund gewesen sein kann.
Aber, was auch immer die Motivation des Produktmanagements ursprünglich gewesen sein mochte, so hat sich die Manipulation von Kennzahlen als das wirtschaftlichste Mittel der politischen Repression erwiesen, wogegen sich Betroffenen innerhalb des Dienstes nicht wehren können. Alles, was ein Computer zählen kann, kann zur Kennzahl umfunktioniert werden. Die bekanntesten Kennzahlen sind diejenigen, die der Nutzer zu sehen bekommt, also die Anzahl von Mitgliedern einer Facebook-Gruppe, Anzahl der "Freunde", der so genannten Likes[wp] und Dislikes, Anzahl der Kommentare (die oft nicht mit den händisch zählbaren Kommentaren übereinstimmen, weil das System die ausgeblendeten Kommentare mit zählt), Aufrufzahlen von Inhalten, Abonnentenzahlen und Häufigkeit des Teilens. Dazu gibt es eine völlig unbekannte Anzahl von Kennzahlen, die der Nutzer nie zu sehen bekommt: Wie oft die Kommentare eines Nutzers moniert wurden, wie oft die Beiträge eines Publizisten gelöscht wurden, mit wie vielen Nutzern ein Nutzer Umgang gepflegt hatte, die ihrerseits auf geheimen Blocklisten vermerkt sind oder waren, wie oft ein Nutzer bestimmte Schlüsselworte benutzt hat, wie viel Zeit der Nutzer im System verbracht hat, wie viele Konten der Nutzer hat, wie viele Werbeeinnahmen der Nutzer generiert hat oder wie oft sich die Agenten der Amadeu-Antonio-Stiftung schon über einen Nutzer beschwert haben. Der Gläserne Bürger[wp] ist nicht aus Glas, sondern aus Kennzahlen und den Daten, die die DSGVO zu schützen vorgibt. Auch Kanäle oder Inhalte sind solche gläsernen Entitäten, die Kennzahlen zur Verfügung stellen, aus Kennzahlen bestehen und von Kennzahlen abhängig sind. Die unschlagbare Effizienz der Nutzung von Kennzahlen besteht unter anderem darin, dass sie miteinander verknüpft werden können, um das System vollautomatisch in Echtzeit[wp] steuern zu können, selbst, wenn man diese Kennzahlen gar nicht manipuliert, sondern lediglich ihr Zusammenspiel politisch nutzt. Und wenn dem Dienstanbieter das nicht reicht, kann er die Kennzahlen auch manipulieren. Er kann beispielsweise veröffentlichte Aufrufzahlen absenken.[8] Einerseits kann man damit den Nutzern eine geringere Popularität vorspiegeln und andererseits den internen Hype-Produktions-Mechanismen, die ihrerseits nicht nur auf die großräumige Gruppendynamik[wp] einwirken, sondern ihrer Eigenart nach dieser Gruppendynamik, der Massenpsychologie[wp] nachempfunden wurden, die Feedback-Verstärkung stehlen. Man demotiviert also die Nutzer, die die Aufrufzahlen sehen und verringert die Anzahl der Nutzer, die den Inhalt überhaupt zur Kenntnis nehmen werden. Aufgrund des unserem kapitalistischen Systems immanenten, allgegenwärtigen Wettbewerbes, im konkret vorliegenden Fall des Aufmerksamkeitsmanagements, gerät der Inhalt dann in eine noch überzeugendere Abwärtsspirale. Wofür die Produktmanager des Dienstes also nur sehr wenig Zeit aufwenden müssen, also die grundlegende Konfiguration der Algorithmen, die hernach vollautomatisch wirken, in Kombination mit einigen wenigen Manipulationen an den Kennzahlen durch ein Moderatorenteam des Dienstes, müssen die Anbieter der unerwünschten Inhalte einen um mehrere Größenordnungen höheren Aufwand betreiben, um wenigstens eine Art von Existenz aufrechtzuerhalten. An einen regelrechten Erfolg ist dabei gar nicht zu denken, um so weniger an nachhaltigen Erfolg. Sollten vorübergehend Effekte auftreten, die wie ein echter Erfolg aussehen, so kommen umgehend nicht-kryptische Formen der Zensur zum Einsatz.
Was man tun kann
Es ist unabdingbar alle Formen der Informationsverbreitung in jedem Falle auf ihre tatsächliche Wirksamkeit zu überprüfen, um so wenigstens zu erkennen, wann der Schattenbann eingesetzt wird, da die dem Schattenbann zugrunde liegende Taktik darin besteht, den Erzeuger, Publizisten oder Verbreiter von Informationen in dem Glauben zu halten, dass seine Handlungen erfolgreich verlaufen wären. Der Glaube an die ungestörte Funktionalität eines Systems zur Informationsverbreitung ist als naiv und völlig unrealistisch einzustufen, was alle Informatik-Systeme gilt, nicht nur für die US-amerikanischen "sozialen" Netzwerke. Es fängt damit an, dass man sich grundsätzlich für Dienste, in denen man auf der Grundlage einer digitalen Identität, also eines Nutzerkontos bei dem Dienst, eine zweite, unabhängige Identität schafft oder mit einer weiteren, vertrauenswürdigen, persönlich bekannten Person, die dort auch ein Konto innehat, zusammenarbeitet. Nachdem man einen Beitrag veröffentlicht, beispielsweise einen Kommentar in einer Kommentarspalte unter einem YouTube-Video, muss man aus der Perspektive des anderen Kontos prüfen, ob der Kommentar auch für andere Nutzer sichtbar ist. Dabei gilt es zu bedenken, dass die Fähigkeit der großen Internetfirmen, speziell die Fähigkeiten von Google, deren Tochterunternehmen YouTube ist, zu erkennen, wer mit wem zusammenarbeitet oder gar identisch ist, sehr hoch ist. Wer zwei Konten auf der Basis von Google hat, kann sich sicher sein, dass Google weiß, dass es sich bei dem Inhaber beider Konten um dieselbe Person handelt, unabhängig davon, welche Angaben zur Person man gemacht hat. Nicht nur können die privaten Dienste ihre Analysen über eine Person machen, auch hat die NSA vollen Zugriff auf alle dafür benötigten Daten und führt zusätzliche personenbezogene Analysen durch und speichert diese Daten auf unbegrenzte Zeit.[9]
Um sich sicher zu sein, dass eine "private" Kommunikation innerhalb eines Dienstes wie Facebook auch erfolgreich war, ist es erforderlich, vom Kommunikationspartner eine möglichst spezifische Antwort zu bekommen. Man muss also in vielen Fällen auf dem Dialog bestehen, insbesondere bei Initiativkontakten. So lange man keine "vernünftige" Rückmeldung bekommen hat, muss man davon ausgehen, dass die Kommunikation nicht stattgefunden hat. Die in solchen Diensten üblichen kleinen Marker, die dem Versender anzeigen sollen, dass die Nachricht verschickt, übertragen oder gelesen wurde, sind nicht vertrauenswürdig. Der Dienst kann sie nach Belieben manipulieren. Etwas anderes ist die noch(!) einigermaßen vertrauenswürdige MDN[wp] im allgemeinen E-Mail-Verkehr, die man deswegen grundsätzlich nutzen sollte. Da wo die MDN einen nicht weiter bringt, kann auch die DSN[wp] zusätzlich genutzt werden. Der kritische Bürger ist also angehalten, sich mit diesen Mechanismen gründlich vertraut zu machen und der Zuverlässigkeit eines jeden Systems, das er nicht selber gebaut und erfolgreich getestet hat, zu misstrauen. Die Techniken der Übertragungskontrolle für den Nutzer sind so alt, wie die Übertragungswege. Aber leider wissen nur die allerwenigsten Nutzer, wie sie funktionieren, oder dass es sowas überhaupt gibt. Die Standardeinstellungen sind in allen Fällen so, dass eine Kontrolle nicht stattfindet. Das gilt auch für SMS[wp], die man beispielsweise verwenden kann, auch wenn jemand kein WhatsApp[wp] besitzt, es nicht installiert hat, nicht aktualisiert hat, nicht gestartet hat oder wegen abgeschaltetem W-LAN[wp] nicht empfangen kann usw. Auch für SMS kann man Empfangsbestätigungen anfordern.[10]
Man kann als gewöhnlicher Nutzer nichts gegen den Schattenbann tun, weil diese Zensurmethode einerseits legal ist, sodass ein gerichtliches Vorgehen scheitern würde, andererseits müsste man einen mehrstelligen prozentualen Anteil der Nutzer eines Dienstes von der Notwendigkeit der Teilnahme am eignen Vorhaben überzeugen, um einen Boykott organisieren zu können, der eine reale Auswirkung auf das Verhalten des Dienstes hätte. Bei zwei Milliarden aktiver YouTube-Nutzer wären das mindestens 200 Millionen Nutzer, was der Zahl aller Nutzer in Europa entspräche. Letzteres wird mittels des äußerst effektiven Schattenbanns ausgeschlossen, weshalb man denselben also nur erforschen und möglichst umgehen kann, indem man zur Verständigung mit den Personen, mit denen man kommunizieren möchte, möglichst viele und unterschiedliche Kommunikationswege benutzt: Persönliches Gespräch, Telefonat, Brief, E-Mail, SMS, WhatsApp, Video-Chat[wp] und andere Instant Messenger[wp] wie Telegram[wp], Jedermannfunk[wp] wie PMR[wp] LPD[wp] oder CB-Funk[wp], TTY[wp] usw.
Beispiele
Zitat: | «Facebook ist KEIN Ort mehr der Information, der Vernetzung, der moralischen Aufrichtung. Facebook ist ein Wrack. Eine Ruine.
Facebook ZEIGT NICHT MEHR, WAS DIE MENSCHEN POSTEN. Facebook ZEIGT NUR NOCH, WAS DIE ZENSURHORDEN ÜBRIGLASSEN. Begreift es endlich! [...] Durch Schattenbann und weitere fiese Tricks wird die Reichweite von Leuten, die sich nicht mundtot machen lassen wollen, stufenlos runterreguliert. [...] Während der letzten 30 Tage meiner wiederholten Sperre (die übrigens ALLE unbegründet waren) hat Facebook mir ca. 800 Abonnenten gestohlen. Die werden einfach abgeklemmt und merken es erst viel später. Man wird einfach virtuell getötet. Man steht hilflos davor und kann NICHTS machen. [...] Aktiv zu suchen, beispielsweise über Google, ist sehr anstrengend. Und man muss erst einmal wissen, wonach man suchen muss. Darüber hinaus unterdrückt Google inzwischen auch sehr viel. Die Sachen sind zwar im Internet - aber man findet sie nicht, sie werden nicht angezeigt. [...]» - Michael Kühntopf[11] |
Einzelnachweise
- ↑ Fruzsina Eordogh: Why Republicans Weren't The Only Ones Shadow Banned On Twitter, Forbes am 31. Juli 2018
- ↑ André Reinhardt: WhatsApp: Zahl der Weiterleitungen wird deutlich reduziert, tleltatif.de am 22. Januar 2019
- ↑
Eli Pariser: Vorsicht vor "Filter-Blasen" im Internet - TED (2. Mai 2011) (Länge: 9:05 Min.) (Filterblase)
- ↑ Schattenbann-Welle im deutschen Twitter, Heise/Telepolis am 26. Juni 2017
- ↑
Nuhr im Ersten - Sendung vom 28. November 2019 - Comedy & Satire im Ersten (28. November 2019) (Länge: 44:38 Min.) (Dieter Nuhr[wp])
- ↑ John de Nugent[mp]: GERMAN Google.de verschweigt sogar die bloße Existenz der deutschsprachigen Metapedia, daher unterstuetzt sie!, 17. August 2013
- ↑
SpiegelMining - Reverse Engineering von Spiegel-Online (33c3) - media.ccc.de (29. Dezember 2016) (Länge: 58:46 Min.) (David Kriesel[wp] auf dem Chaos-Computer-Congress)
- ↑
Bewiesen: YouTube stiehlt über 7.000 Abrufe - taz-Redakteurin wacht in Realität auf - Oliver Janich[wp] (23. Oktober 2019) (Länge: 23:49 Min.)
- ↑
So erobern wir das Internet zurück - Edward Snowden (18. März 2014) (Länge: 35:18 Min.) , Transkript, TED2014, März 2014
- ↑
Get delivery report of sms on android oppo - How To Do? (2. Oktober 2017) (Länge: 1:09 Min.)
- ↑ Jewiki: M. Kühntopf, facebook-Statement, 5. November 2017