Keine Freiheit für Hasskommentare

Auswirkungen von Moderation und Nicht-Moderation im Internet.

©iStock.com/alashi

(1) Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film werden gewährleistet. Eine Zensur findet nicht statt.


(2) Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre.

Auszug aus dem Grundgesetz

 

Auch wenn das Internet namentlich nicht genannt wird, das Selbstverständliche zum Thema „Freiheit im Netz“ findet sich in Artikel 5 des Grundgesetzes für die Bundesrepublik Deutschland. Hier werden neben der „Freiheit“ auch „Schranken“ erwähnt – ungeachtet ob analog oder digital, gelten die im Strafgesetzbuch (StGB) ausgeführten Grenzen und Verbote beispielsweise bei Volksverhetzung („zum Hass aufstacheln“), bestimmten Formen der Beleidigung, Androhungen von Straftaten oder auch bei der Verwendung von „Kennzeichen verfassungswidriger Organisationen“. Diese sollen gemeldet werden und durch die Strafverfolgungsinstitutionen eine entsprechende Bearbeitung erfahren. Das alleine ist schon eine sehr große Aufgabe, die einer permanenten Arbeitsverteilung und Praxisprüfung zu unterliegen hat, denn die Frage, was justiziabel ist und was nicht, bedarf gut geschulter Menschen und Institutionen.

Aber auch wenn es gelingen sollte, eine akzeptable Regulierung justiziabler Äußerungen im Netz – und derer gibt es viele – zu erreichen, bliebe das Thema „Online Hate Speech“ trotzdem aktuell und drängend. „Zu einem gesamtgesellschaftlichen Problem entwickelt sich Online Hate Speech aber auch deshalb, weil eben nicht jede beleidigende, aggressive, destruktive oder einfach verletzende Äußerung rechtlich strafbar ist. Es braucht deshalb über den reinen Gesetzestext hinaus eine umfassende Klärung, wie unser Miteinander im Netz zukünftig ausgestaltet sein soll und welche Spielregeln wir uns setzen. Dabei gilt es zwischen dem, was man prinzipiell sagen darf, und dem, was man im Sinne der Sozialverträglichkeit dennoch nicht sagen sollte, offen zu diskutieren.“ 1

 

Am Anfang war ein Leserinnenbrief

©iStock.com/alashi

1713 erschien in der Moralischen Wochenschrift „Vernüfftler“ der erste Leserbrief der deutschen Pressegeschichte, der ein Leserinnenbrief war. Die Leserin meldete sich gegen eine chauvinistische Äußerung des Herausgebers zu Wort. Da sich Herausgeber und Leserin wohl erfolgreich ausgetauscht haben, kann von einer positiven Ersterfahrung gesprochen werden. Partizipation geglückt! Denn eine Gesellschaft und ganz besonders eine demokratische Gesellschaft braucht Menschen, die sich interessiert und meinungsstark – nicht nur aus beruflicher Verpflichtung – an Diskussionen beteiligen. Mit dem Aufkommen der Wochen- und Tageszeitungen entstand die Gattung der Leser*innenbriefe, von denen allerdings anzunehmen ist, dass, früher wie heute, die wenigsten abgedruckt wurden und werden. Relevanz, Ausgewogenheit und sprachliche Kompetenz können drei beachtenswerte Auswahlkriterien sein. Eine Erklärung, dass die Redaktion sich bei Veröffentlichung Kürzungen vorbehält, ist neben dem Hinweis, dass es keinen Rechtsanspruch auf Veröffentlichung gibt, obligatorisch. Für die Auswahl der Briefe ist seit jeher die herausgebende Redaktion zuständig und sei es, wie 1713 beim „Vernüfftler“, ein Ein-Mann-Betrieb. Geändert haben sich seit dieser Zeit hingegen die Gesetze. Schon lange gilt aber, dass Äußerungen, die gegen Gesetze verstoßen, weil sie zum Beispiel zur Gewalt aufrufen oder zur Volksverhetzung anstacheln, wie in § 130 StGB geregelt, nicht veröffentlicht werden dürfen und sollte dies doch geschehen, machen sich Autor*innen und die verantwortlichen Herausgeber strafbar. Derartige Briefe zu zerreißen oder gegebenenfalls einer Staatsanwaltschaft zukommen zu lassen, sollte zur klassischen Verwertungskette gehören. Hier geht es auch darum, die eigenen Regeln (Netiquette und Co) transparent und aktiv auszuführen, auch wenn einige User nicht bereit sind, das Hausrecht des Anbieters zu akzeptieren und nicht selten eine Verschwörung erkennen zu glauben. Das Löschen eines Kommentars oder die Schließung der Kommentarfunktion hat allerdings mit Zensur oder der Einschränkung der Meinungsfreiheit nichts zu tun. Denn es gibt kein Recht auf Veröffentlichung (m)einer Meinung durch Dritte. Und: Verlage oder Herausgeber können gar keine Zensur vornehmen, da es sich hierbei um ein staatliches Vorgehen handelt. Eventuell ist den Menschen oder Institutionen, die sich gegen eine Veröffentlichung entscheiden, Einseitigkeit, Ignoranz oder Feigheit vorzuwerfen. Leser*innen, die mit der Auswahl der Veröffentlichung unzufrieden sind, sei zu empfehlen, das Abonnement zu kündigen, eine andere Zeitung zu lesen oder selbst eine Zeitung zu gründen. Dort können sie dann ihre Meinung, solange diese nicht justiziabel ist, veröffentlichen. Letzteres ist aber – auch dies ist unnötig zu erklären – nicht so einfach. Ein Glück kam da das Internet vorbei.

Wir schreiben das Jahr 2018 und Menschen jeden Alters, Geschlechts, Bildungsgrades und Religionszugehörigkeit sind alleine oder mit wenig Unterstützung fähig, eine Webseite zu erstellen oder zumindest über einen Account in einem Netzwerk zu verfügen. Diese Dichte von Menschen, die Inhalte im Netz bereitstellen, produzieren eine Vielzahl von Informationen, aber auch von Halb- und Falschinformationen. Wie damit umzugehen ist, muss und wird an anderen Stellen intensiv diskutiert. Ungeachtet aber der Art der Inhalte, die über einen Webauftritt, einen Blog oder einen Facebook- oder Instagram-Account ins Netz gestellt werden, gilt es auszuloten, ob nur Inhalte „gesendet“ oder auch „empfangen“ werden. Aktuell wird vielen Inhalteproduzenten deutlich, dass ein permanenter digitaler Rückkanal viel Fluch und nur punktuell Segen verspricht.

 

Mut zur Auswahl und Ansprüche haben

©iStock.com/alashi

Mehr Meinung und mehr Information heißt nicht mehr Qualität in der Debatte. Und so stellt sich die Frage: Wie viel Rückkanal oder besser gefragt, welche Form von Rückkanal ist sinnvoll? Oberflächlich betrachtet haben Zeitungen sich für eine Auswahl an Leser*innenbriefe aus Platzgründen entschieden. Einmal angenommen es wäre wirtschaftlich und drucktechnisch möglich gewesen, alle eingesandten Briefe abzudrucken, ist denn davon auszugehen, dass dies die Debatte bzw. Auseinandersetzung automatisch bereichert hätte? Wohl kaum. Nun ist es, anders als in den Printmedien, im Netz möglich, direkt auf aktuelle User-Kommentare zu antworten. Wenn dies konstruktiv geschieht, ist es sinnvoll und den Eigenschaften des Mediums sei gedankt. Insofern ist es hier an der Zeit, die Analogie der digitalen Kommentarfunktionen mit denen des Leser*innenbriefes an Zeitungen und Zeitschriften zu beenden. Allerdings mit dem dringenden Appell an die Inhalteproduzenten, ihren redaktionellen Aufgaben nachzugehen und die Meinungen ihrer Nutzer*innen auszuwählen und zu moderieren und nicht einfach nur eine Plattform zu bieten. 2 Und dies machen ja auch einige Anbieter bereits sehr erfolgreich: So wird nicht für alle Artikel die Kommentarfunktion freigeschaltet. User müssen sich registrieren, wenn sie Kommentare schreiben wollen. Es gibt einen konkreten Verhaltenskodex. Die Kommentare werden sachlich moderiert und Kommentatoren erhalten Hinweise, dass sie gegebenenfalls geblockt bzw. gelöscht werden, wenn sie sich nicht an die Regeln halten. So ist es beispielsweise bei „Zeit Online“ der Fall. Kritisch kann aber bemängelt werden, dass die hauseigenen Kommentarregeln bei einigen Anbietern für die (aktiven wie passiven Leser*innen) nicht leicht zu finden sind oder nur, wenn sie über den Facebook-Auftritt gehen.

 

Sinnvolle Moderation

Nicht alle Redaktionen oder Social Media Manager moderieren konsequent. „Bild.de“ stellte auf ihrer Facebook-Seite am 30. Dezember 2017, unter einem Video mit Neujahrsgrüßen von Wolfgang Bosbach unter dem Titel „Vorsicht Neujahr“, die Frage: „Wenn Weihnachtsmärkte zu Hochsicherheitszonen werden? Wenn arabische Großfamilien ganze Viertel in Angst und Schrecken versetzen? Ist das dann noch „unser Leben“? So wie wir es kannten und geliebt haben?“

Die zu erwartenden Antworten bekam Bild.de unmittelbar. Ein Beispiel:

A. R. Dieses Land und ihre linken Drecks Moralaposteln ekeln mich an. Wir öffnen Tür und Tor um Toleranzfremden Religionsfanatikern die Freiheit zu schenken. Damit sie ihr krankes Gedankengut und ihre Hinterwäldlerische Lebensphilosophie auf Staatskosten ausleben können. Im Gegenzug nehmen wir unseren Frauen jegliche Freiheit. Es ist ja nicht mal mehr möglich mit Kindern in einen Drogeriemarkt zu gehen.

Zum Facebook Post

Nun wird es nicht erstaunen, dass auf der Facebook-Seite von Bild.de eine Vielzahl (vielleicht sogar die Mehrzahl) von Kommentaren folgende Elemente beinhalten: Verallgemeinerungen, Bedienen von Stereotypen, Verbreitung von Vorurteilen, Verschwörungstheorien, Wir-Die-Rhetorik, bewusste Verbreitung von falschen Aussagen, Gleichsetzungen, Befürwortung von Gewalt, Beleidigungen usw. Diese Aspekte können u.a. als Muster von Hate Speech gesehen werden.

©iStock.com/alashi

Aber ob der zitierte Kommentar nun als Hate Speech bzw. Hasskommentar zu bezeichnen ist, muss dabei gar nicht entscheidend sein. Entscheidend ist der Eindruck, dass genau diese Art der Auseinandersetzung gewünscht ist, denn dort, wo Emotionen geweckt werden und leider auch Vorurteilen Raum gegeben wird, gibt es viele Klicks und Likes. Eine öffentlich nachzuvollziehende Moderation von Bild.de findet (daher?) nur punktuell statt. Dies kann dann auch dazu führen, dass die Redaktion von den eigenen Usern nicht mehr ernstgenommen wird, beziehungsweise als kontrollierende und moderierende Kraft ihre Glaubwürdigkeit verspielt hat.

Ein Beispiel dafür ist die Bild.de Nachricht vom 30.Dezember und die darauf folgenden Reaktionen: Post Bild.de vom 30.12.2017: „‘Er ist nie und nimmer erst 15 Jahre alt‘, sagt der Vater des Mädchens (15), das in Rheinland-Pfalz von Abdul D. erstochen wurde.“

40 Minuten später postete Bild.de:

Bild Eine große Bitte an euch hier in den Kommentaren: Auch wenn diese Tat sehr viele Emotionen auslöst, können und werden wir es nicht tolerieren, wenn hier in den Kommentaren ebenfalls dazu aufgerufen wird, Menschen zu töten. Wer das schreibt, stellt sich auf eine Stufe mit dem Täter und ist nichts besser. Denkt da bitte einmal vorher drüber nach, bevor ihr kommentiert. Danke euch.

Kommentar eines Users Liebe Bild. Ihr denkt auch NIE nach bevor ihr was Postet, verlangt es aber von anderen.

Zum Facebook Post

Eine sinnvolle, weil regulierende Moderation auf Bild.de übernehmen punktuell die Aktivist*innen von #ichbinhier und springen dazu auch mal Bild-Chefredakteur Nicolaus Blome zur Seite, der mit einem AfD-kritischen Kommentar am 2. Januar 2018 auf der eigenen Facebook-Seite Protest- und Hasskommentare auslöste.

M. R. #ichbinhier und möchte mich für diesen Beitrag bedanken. Äußerungen wie die von Herrn Jung gefährden unsere Demokratie.

H.-P. Sch. Hurra die Sekte ist wieder da.

N. W.: H.-P. Sch. ich finde auch gut, dass #ichbinhier jetzt da ist, und dass es jetzt ein bisschen ausgewogener wird mit den Kommentaren.

Zum Facebook Post

 

Moderation fördert gute Beiträge

©iStock.com/alashi

„Hasskommentare im Netz werden grundsätzlich von einer lauten Minderheit geschrieben. Das ist nicht nur mein subjektiver Eindruck, Zahlen belegen das. Als Community-Anbieter sollte man deshalb darauf achten, dass diese Minderheit nicht den ganzen Raum einnimmt. Die Mehrheit der Nutzerinnen und Nutzer lehnt ihre Aussagen ab und kann so aber aus Communities ausgeschlossen oder rausgeekelt werden.“ 3

So beschreibt Anna-Mareike Krause ihre Erfahrungen als verantwortliche Social Media Koordinatorin der Tagesschau. Ein schlecht moderiertes Forum führt schnell zu einer Art „Broken-Window-Theorie“: Wenn einer anfängt, ungestraft zu beleidigen, werden andere ermutigt und nachkommen. Dadurch ist es möglich, dass einzelne User, die versuchen eine sachliche Diskussion herbeizuführen, selbst zur Zielscheibe werden, statt Unterstützung zu erhalten:

Dennis Ein hoch auf die importierten Geburtsmaschinen, die dafür auch fürstlich entlohnt werden.

Judith Frauen als „Geburtsmaschinen“ zu bezeichnen ist mehr als widerlich.

Dennis Heul doch Judith.

Lucas Judith Sie sind natürlich keine Geburtsmaschine. Wer will mit Ihnen schon Kinder?

 

So führt die „Nicht-Moderation“ im Gegenzug dazu, dass konstruktive Kommentare, die zu einer Versachlichung der Debatte führen könnten, weniger werden oder gar ausbleiben. Wer Gefahr läuft sich mit einem kritischen Kommentar, der Vorurteile und Beleidigungen aufzeigt, selbst zum Angriffsziel zu machen, verzichtet schnell auf die Freiheit der eigenen Meinungsfreiheit.

Die Schlussfolgerung daraus könnte sein – sehr naheliegend und fast banal: Wer auf seiner Webseite einen möglichst freien Austausch von vielfältigen Meinungen und Stimmen haben möchte, muss dafür arbeiten und wohlüberlegte und nachvollziehbare Regeln kommunizieren und durchsetzen. Eine gut funktionierende Community entsteht nicht von selbst, sondern muss gebildet werden. Diese dankt aber häufig genug mit interessanten und konstruktiven Kommentaren.

Über den Autor

Aycha Riffi

Studium der Film- und Fernsehwissenschaften, Theaterwissenschaften, Germanistik und Pädagogik an der Ruhr-Universität Bochum. Leiterin der Grimme-Akademie im Grimme-Institut. Dort war sie unter anderem für die europäischen Projekte Media4us und BRICkS (Building Respect on the Internet by Combating Hate Speech) in der Projektleitung. Gemeinsam mit Kai Kasper und Lars Gräßer ist sie Herausgeberin der Publikation „Online Hate Speech. Perspektiven auf eine neue Form des Hasses“. Seit 2016 hält sie Vorträge und leitet Workshops zum Umgang mit Hate Speech.


Weitere interessante Artikel