Ein schlechter Tausch: Schutz vor Hass im Netz gegen Meinungsfreiheit

Das ursprünglich aus Radio FRO hervorgegangene Cultural Broadcasting Archive (CBA) organisiert sich neu und wird zum eigenen Verein. Auch aus diesem Anlass reflektiert Ingo Leindecker eine Meinungsbildung, die heute vor allem über das Internet stattfindet: Die gesetzlichen Bedingungen, unter denen wir dort debattieren, haben großen Einfluss auf unsere Meinungs- und Informationsfreiheit. Immer wieder sehen Gesetzesentwürfe weitreichende Einschränkungen vor, die besonders nicht-kommerzielle Initiativen in ihrer Existenz bedrohen.

Wenn wir heute an einer öffentlichen Diskussion teilnehmen, dann tun wir das vielfach auf den größeren kommerziellen Online-Plattformen, deren Monopolisierung im letzten Jahrzehnt die öffentlichen Diskursräume stark verengt hat. Abgesehen davon, dass diese Systeme ohnehin geschlossene Räume sind, tragen einseitige Algorithmen zusätzlich zur Bildung der bekannten „Filterblasen“ bei, sodass man von konträren Meinungen erst gar nichts mehr erfährt. Das dient vor allem der Profitmaximierung der Plattform selbst, wozu sie die persönlichen Daten ihrer User*innen systematisch sammelt und an Werbekunden verkauft. Derart werden öffentlicher Diskurs und Meinungsbildung zugunsten der ökonomischen Wertsteigerung eines Privatunternehmens reguliert. Die Nutzer*innen selbst verlieren dabei gleich zwei Mal: Sie verlieren wichtige Möglichkeiten zur qualifizierten Meinungsbildung und müssen sich einem Profiling sowie der Monetarisierung ihrer persönlichen Daten aussetzen, um überhaupt am Diskurs teilhaben zu können.

Dass sich diese Systeme neben dieser Instrumentalisierung auch für Missbrauch eignen, haben spätestens der US-Wahlkampf 2016 und der Skandal um Cambridge Analytica gezeigt. Hier wurde deutlich, wie leicht die kollektive Meinungsbildung und sogar der Ausgang von Wahlen beeinflusst werden kann, solange nur die finanziellen Mittel zur Verfügung stehen. Gleichzeitig wird der öffentliche Diskurs durch (gezielte und teils im großen Stil organisierte) Hasspostings und Trolling vergiftet und behindert. Damit wurde evident, dass es einer politischen Regulierung dieser Plattformen bedarf, die User*innen vor solchen Manipulationen und vor Hatespeech schützt.

Die Medienpolitik der Bundesregierung: Diskursbehinderung statt Förderung von Gemeinnützigkeit, Qualität und unabhängigen Infrastrukturen

Ebenso zeigt es, wie wichtig die Förderung gemeinwohlorientierter, nicht-kommerzieller Infrastrukturen und Algorithmen wäre, um Meinungsfreiheit nicht von den Finanzierungsmodellen der großen Plattformbetreiber abhängig zu machen. Im Sinne der Medien- und Meinungsvielfalt sollten Anreize geschaffen werden, um möglichst demokratische Diskursräume und Beteiligungsmöglichkeiten zu schaffen, von denen öffentliche Meinungsbildungsprozesse profitieren. Daneben muss die Förderung von Qualitätsjournalismus auch endlich für Onlinemedien möglich werden.

Die Bundesregierung geht hier bislang einen anderen Weg: Einerseits werden traditionelle, kommerzielle und qualitativ minderwertige Medien unverhältnismäßig gefördert, während es nach wie vor weder für neue Formen des Digitaljournalismus noch für die dafür benötigten Infrastrukturen Förderinstrumente gibt. Andererseits werden Gesetze vorgeschlagen, die vielfach das Gegenteil dessen erreichen, was sie offiziell bezwecken sollen. Sie schränken nicht nur die Vielfalt im Netz weiter ein, indem sie gemeinnützige Plattformen unnötigen Risiken aussetzen, sondern führen mitunter zur hanebüchenen Umkehr von eigentlich außer Frage geglaubten Rechtsprinzipien wie der Unschuldsvermutung und zu einer völligen Privatisierung der Rechtsdurchsetzung. Die Frage nach der politischen Motivation dahinter drängt sich auf: Entweder man ist schlicht zu kurzsichtig, um Gesetze entlang der Medienrealitäten zu formulieren oder man will Medien- und Meinungsvielfalt bewusst einschränken. Beides sollte die Alarmglocken schrillen lassen.

Neue Gesetzesentwürfe gefährden die Grundrechte

Aktuellste Beispiele sind das Kommunikationsplattformengesetz (KoPl-G, „Hass im Netz-Gesetz“) und das Audiovisuelle-Mediendienste-Gesetz, die nur durch vehementen zivilgesellschaftlichen Widerstand im letzten Moment entschärft werden konnten. Sie sollen Plattformen dazu verpflichten, ihre Diskussionsforen besser zu moderieren. So soll ab einem jährlichen Umsatz von 500.000 € oder einer User*innenanzahl von 100.000 die Einrichtung eines Meldesystems Pflicht werden. Mutmaßliche rechtliche Übertretungen müssen überprüft und innerhalb von 24 Stunden – bei eingehender Prüfung innerhalb von 7 Tagen – gelöscht werden, noch bevor jemals ein Gericht damit befasst wurde, ob es sich tatsächlich um eine Rechtswidrigkeit handelt. Die Kosten dafür sollen die Plattformen offenbar selbst tragen. Bedroht werden Unterlassungen mit Strafen bis zu 10 Mio. Euro. Bei den globalen Megakonzernen mag diese Forderung insofern nachvollziehbar sein, weil ihnen einerseits fast unbegrenzte Mittel zur Verfügung stehen, sie andererseits aber ihre Moderationspflichten weitgehend vernachlässigen und gleichzeitig massiv wirtschaftlich von der User*innenbeteiligung profitieren.

Überraschenderweise wurde (im Gegensatz zum deutschen Netzwerkdurchsetzungsgesetz) im österreichischen Gesetzesentwurf aber kein Unterschied zwischen gewinnorientierten und nicht-kommerziellen Plattformen gemacht. Die anvisierten Untergrenzen sind so angelegt, dass ebenso Projekte wie WikiCommons, WikiData, Github, Respekt.net oder in nicht allzu ferner Zukunft auch das in Linz gegründete CBA – Cultural Broadcasting Archive1 uvm. unter diese Regelungen fallen würden1. Sie leisten einen wichtigen Beitrag zur Informationsfreiheit und Meinungsvielfalt, werden dabei aber weder zur Verbreitung von Hatespeech genutzt, noch haben sie nur ansatzweise die finanziellen Mittel, juristische Beraterstäbe und Moderationsteams zu beschäftigen. Sie werden massiv in ihrer Existenz bedroht, obwohl es hier überhaupt kein Problem zu lösen gibt. Denn Sorgfaltspflichten hinsichtlich rechtlicher Übertretungen ihrer User*innen gibt es für diese Plattformen bereits jetzt.

Neben der fehlenden Treffsicherheit ist es vor allem beunruhigend, welcher gefährlichen Logik dieser in letzter Zeit vorgeschlagenen Digitalgesetze folgen, die sehr weitreichende Konsequenzen für uns alle haben.

Das KoPl-G konnte zwar schließlich mit einer Ausnahme für nicht-kommerzielle Plattformen abgeschwächt werden. Die nächsten Angriffe auf die Meinungsfreiheit stehen aber bereits vor der Tür. Ähnlich wie das in den beiden angesprochenen Gesetzen vorgesehen war, sehen auch die geplanten Uploadfilter eine Beweislastumkehr und eine Privatisierung der Rechtsdurchsetzung vor: Anstatt dass ein*e Kläger*in ein Gericht zur – in diesem Fall urheberrechtlichen – Klärung bemüht, ob ein Inhalt rechtswidrig ist, müssen sich User*innen gegen eine Löschung „freibeweisen“, damit der eigene Inhalt überhaupt erst einmal veröffentlicht werden darf – und dann ist die Diskussion meist auch schon längst vorüber. Über die Rechtmäßigkeit bestimmt dann anstatt eines Gerichts ein privates Unternehmen. Das ist Schuldvermutung bei gleichzeitiger Aushebelung der Gerichtsbarkeit. Und abermals ist keine Ausnahme für nicht-kommerzielle Plattformen vorgesehen.

Die Folgen: Medialer Kahlschlag und enormes Missbrauchspotential

Die nationale Umsetzung der EU Urheberrechtsrichtlinie muss daher mit Argusaugen beobachtet werden. Kommt das Gesetz so wie vorgesehen, werden viele Plattformen allein wegen der hohen Kosten dazu übergehen, sehr vieles erst gar nicht zu veröffentlichen oder auf öffentliche Diskussionsforen bzw. auf user-generated Content im Allgemeinen zu verzichten („Overblocking“). Viele kleine Plattformen werden ihren Betrieb einstellen oder stark einschränken müssen. Neue Projekte werden aufgrund des hohen Risikos erst gar nicht mehr entstehen. Die großen Player wie Facebook oder Youtube, die man eigentlich zu erreichen vorgibt, arbeiten unterdessen bereits an selbstlernenden Algorithmen, die die rechtliche Beurteilung automatisiert für sie erledigen sollen. Dann wurde die Rechtsdurchsetzung nicht nur privatisiert, sondern auch noch einem Algorithmus übertragen, der in Zukunft völlig intransparent darüber bestimmt, welche Postings veröffentlicht werden und welche nicht.

Hinzu kommt, dass solche Gesetze erst wieder leicht missbraucht werden können, indem etwa politische Gruppierungen konzertiert missliebige Inhalte auf einer Plattform melden. So könnten im großen Stil Inhalte lediglich mit der Behauptung einer Rechtsübertretung bis auf Weiteres offline genommen werden.

Ein gutes Beispiel dafür liefert etwa der prominente Fall um die Autorin Stefanie Sargnagel 2017, die aufgrund ihrer politischen Äußerungen zur Zielscheibe von rechten Agitator*innen wurde, die auf diese Weise die Veröffentlichung ihrer Postings verhinderten. Dass solche Gesetze genauso indirekt von staatlichen Stellen missbraucht werden können, macht das Ganze noch beunruhigender.

Conclusio: Sobald Gesetze vorsehen, Meinungsfreiheit, Medienvielfalt und grundlegende Rechtsprinzipien gegen welches Interesse auch immer einzutauschen, gehen sie zu 100% an den Interessen der allgemeinen Öffentlichkeit vorbei und müssen daher vehement bekämpft werden.

Ingo Leindecker ist Medienaktivist, Vorstandsmitglied von Radio FRO und des Vereins Cultural Broadcasting Archive.

 

Dieser Text erschien ursprünglich in der Dezemberausgabe 2020 von dieReferentin.

1 „Welche Online-Plattformen vom neuen „Hass im Netz“-Paket betroffen sein werden“

Mehr News

Display Europe
Display Europe
Display.Voices - European Communities in Media
Labs & Conference
eBook-Release: „Building a European Digital Public Space”

Schreibe einen Kommentar