Sie befinden sich hier: Start |Publikationen |vorgänge |Online-Artikel |

vorgänge: Artikel - 16.07.19

„Fake News“, „Infox“, Trollfabriken

Jörn Reinhardt

Über den Umgang mit Desinformationen in den sozialen Medien

in: vorgänge Nr. 225/226 (1-2/2019), S. 97-108

Die sozialen Medien haben sich als eigenständige globale Kommunikationsinfrastruktur etabliert und sind zu einer wichtigen Sphäre der politischen Auseinandersetzung geworden. Auch Falschnachrichten und Desinformation haben darin einen festen Platz. Schillernde Begriffe wie "Fake News" oder "Social Bots" bestimmen wiederholt die Diskussionen um den Zustand der demokratischen Öffentlichkeit. Der Beitrag erläutert verschiedene Erscheinungsformen und Wirkungsweisen von Desinformation sowie Regulierungs- und Selbstregulierungsoptionen. Nicht nur der Gesetzgeber geht, wie in Frankreich mit dem "Gesetz gegen die Manipulation von Informationen", gegen Desinformation und die Verbreitung von Falschnachrichten vor. Auch die sozialen Netzwerke verschärfen ihre Gemeinschaftsstandards und bemühen sich - insbesondere unter dem Eindruck von Aktions- und Maßnahmeplänen auf europäischer Ebene - um eine effektive Durchsetzung. Dies steht in einem Spannungsverhältnis zur grundrechtlich gewährleisteten Meinungsfreiheit.

 

I. Einleitung

Desinformation und Falschmeldungen, Gerüchte und Halbwahrheiten waren schon immer ein politisches Mittel und Bestandteil politischer Prozesse. Dass politische Propaganda und Desinformationskampagnen in den sozialen Medien einen festen Platz haben (Bradshaw/Howard 2018), ist daher nicht überraschend. Die großen sozialen Netzwerke und Kommunikationsplattformen haben, was ihre Bedeutung für die öffentliche Meinungsbildung angeht, zu den klassischen Massenmedien aufgeschlossen.[1] Soziale Medien sind zu einer wichtigen Sphäre der politischen Auseinandersetzung geworden. Es sind Orte, an denen um Einfluss und Meinungsmacht gerungen wird. Wie jede mediale Neuerung haben auch sie ihre eigenen Propagandamittel hervorgebracht (Benkler et al. 2018). Auch wenn die Auswirkungen der Verbreitung von Falschinformationen auf politische Willensbildungsprozesse und das Wahlverhalten unklar sind und die empirische Forschung vielfach erst am Anfang steht, bestimmen Begriffe wie "Fake News" (im Französischen auch "Infox" genannt) oder "Social Bots" in unterschiedlichen Konjunkturen und Erregungswellen die Debatte um den Zustand der demokratischen Öffentlichkeit. In politischen Auseinandersetzungen sind es sehr gebräuchliche, aber letztendlich auch schillernde Begriffe. Wenn man sich über Regulierungsmöglichkeiten und die rechtlichen Rahmenbedingungen klarer werden will, kommt es zunächst darauf an, die Erscheinungsformen von Desinformationen deutlicher zu machen. Interventionen mit dem Ziel, Falschinformationen aus den sozialen Medien herauszufiltern und eine "unverzerrte" Kommunikation zu gewährleisten, geraten leicht in ein Spannungsverhältnis zur Meinungsfreiheit. Das zeigt sich nicht nur in den Fällen, in denen autoritäre Regime Anti-"Fake News"-Gesetze dazu einsetzen, um gegen unliebsame Meinungen vorzugehen. Dies gilt auch unter den Vorzeichen demokratischer Verfassungsordnungen und nicht zuletzt für die Selbstregulierungsbemühungen der sozialen Medien. 


II. Desinformation in einer automatisierten Öffentlichkeit

An der Diskussion über Desinformation in den sozialen Medien lässt sich ablesen, wie sehr sich die Erwartungen an die Internetkommunikation verändert haben. Dominierten zunächst optimistische Vorstellungen einer verflüssigten, direkteren Kommunikation, werden sie zunehmend als Quelle von Fehlentwicklungen verstanden, die nicht zuletzt die Bedingungen einer freien öffentlichen Meinungsbildung unterlaufen können. Unter Desinformationen werden dabei gezielt und bewusst gestreute Falschinformationen verstanden. Sie unterscheiden sich von den zirkulierenden Unwahrheiten, die ein fester Bestandteil der gesellschaftlichen Kommunikation und des demokratischen Diskurses sind. Politische Akteure können Desinformationen für die unterschiedlichsten Ziele einsetzen. Dies können kurzfristige strategische Ziele sein, etwa um den Ausgang politischer Entscheidungen oder die öffentliche Meinungsbildung zu beeinflussen. Die Ziele können aber auch längerfristiger sein und darin bestehen, das Vertrauen in das Funktionieren der demokratischen Öffentlichkeit insgesamt zu erschüttern. Wie die parlamentarischen Untersuchungen zum u.s.-amerikanischen Präsidentschaftswahlkampf und der Brexit-Abstimmung gezeigt haben, sind dies auch und insbesondere ausländische Akteure (zu den russischen Desinformationsstrategien vgl. etwa Mannteufel 2018 sowie Jamieson 2018).[2]Desinformationskampagnen werden mit den sich entwickelnden technischen Möglichkeiten subtiler. Sie zielen nicht nur auf die Verbreitung in den sozialen Netzwerken, sondern auf eine Rückkopplung mit den klassischen Medien und die Agenda der institutionalisierten Politik. Besonders gefährlich für die Integrität einer demokratischen Kommunikationsordnung ist es, wenn sich Desinformation mit klassischer Macht verbindet. Der Politikwissenschaftler Brendan Nyhan fasst die Ergebnisse einer umfangreichen Studie zu "Fake News" im amerikanischen Wahlkampf folgendermaßen zusammen: "The most worrisome misinformation in U.S. politics remains the old-fashioned kind: false and misleading statements made by elected officials who dominate news coverage and wield the powers of government" (Nyhan 2019). Postfaktische Politik kann sich dabei nicht mehr in einem HobbesschenSinn ausschließlich auf Machtsprüche und Autorität stützen ("Auctoritas non veritas"). Eine Politik, die sich von Rechtfertigungsanforderungen entkoppeln will, bedarf spezifisch medialer Strategien. Die fortlaufende Diskreditierung medialer Berichterstattung als "fake news" gehört dazu (Ross/Rivers 2018). Dazu gehören auch die für die sozialen Medien typische Personalisierung, das Herausstellen von Schwächen und Individualität sowie ein selbstbewusster Umgang mit den eigenen Lügen (Turner 2019).

Microtargeting

Desinformationskampagnen können an die Funktionslogik der sozialen Medien anschließen. Die Digitalisierung der Kommunikation und das dominierende, auf Werbeeinnahmen ausgerichtete Geschäftsmodell der Plattformen, das starke Anreize für ein kontinuierliches "Monitoring" der Nutzer setzt, ermöglichen neue Formen der politischen Kommunikation und der gezielten Manipulation. Soziale Medien operieren auf der Basis einer datengetriebenen Ökonomie, die das Nutzerverhalten umfassend registriert. Dies eröffnet die Möglichkeit eines politischen "microtargeting", also des gezielten Ansprechens von Nutzergruppen mit eigens auf sie zugeschnittenen (Des-)Informationskampagnen. Ein technisierter Wahlkampf kann an die "ausgelesenen" Gewohnheiten, Verhaltensweisen und Bedürfnisse anknüpfen und versuchen, Stimmungen in politischer Absicht zu beeinflussen und Aufmerksamkeiten zu lenken (Zuboff 2018: 341 ff.). Microtargeting ist als solches noch nicht notwendig manipulativ oder eine spezifische Desinformationstechnik. Es ermöglicht es allerdings, verschiedene und zum Teil auch gegensätzliche Botschaften an die unterschiedlichen Wählergruppen zu senden und damit auch Falschinformationen gezielter und vielleicht auch wirkungsvoller zu verbreiten. Die Unterscheidung von manipulierter und prinzipiell freier politischer Willensbildung muss angesichts dieser Möglichkeiten noch einmal neu justiert werden.

Trollarmeen, Bots und Netzwerkeffekte

Die vom amerikanischen Senat und dem britischen House of Commons in Auftrag gegebenen Studien haben die Bandbreite der Strategien und die Funktionsweise von automatisierter Propaganda deutlicher werden lassen. Dazu gehören Praktiken wie der Einsatz professioneller "Trolle" und hochautomatisierter Nutzeraccounts zur Verbreitung von Desinformation oder Hassbotschaften. Ziel ist es, die Deutungshoheit über bestimmte Vorgänge zu gewinnen. "Trolle" sind reale Personen (wenn auch mit möglicherweise falschen Profilen). "Social Bots" hingegen reagieren entsprechend ihrer Programmierung automatisiert auf Kommunikation in den sozialen Medien. Unter den Kommunikationswissenschaftlern ist dabei vieles umstritten. Die Unsicherheiten reichen von den Merkmalen, an denen ein "Social Bot" als solcher erkannt wird, bis zum Ausmaß der Aktivitäten, die von automatisierten Accounts tatsächlich ausgehen.[3] Nach einem Bericht der Tageszeitung Die Welt vom Ende des vergangenen Jasetzt worden sein.[4] Der Artikel beruft sich auf die Ergebnisse einer Studie, deren Methodik nicht weiter erläutert wurde und deren Aussagekraft letztendlich fragwürdig blieb. Gleichwohl hat die Politik auf die Meldung schnell mit einer Forderung strengerer Regulierung von automatisierten Bot-Accounts reagiert.[5]

Der Einfuss auf die Meinungsbildung

Weitgehend unklar ist auch, in welchem Maß die verschiedenen Praktiken der Desinformation die politische Meinungsbildung und das Wahlverhalten tatsächlich beeinflusst haben bzw. zu beeinflussen vermögen. Eine Schwierigkeit der Analyse von Online-Desinformationskampagnen resultiert daraus, dass die Daten der Unternehmen auch für wissenschaftliche Zwecke in der Vergangenheit nur sehr bedingt zugänglich waren.[6] Die Daten, die für die amerikanischen Studien zur Verfügung gestellt wurden, beziehen sich nicht auf die Reaktionen der Nutzer, die mit den Inhalten konfrontiert wurden. Die beteiligten Akteure haben ein Interesse, den Einfluss auf politische Ereignisse, Wahlen und Abstimmungen möglichst groß erscheinen zu lassen. Das gilt für die russische Internet Research Agency (IRA) genauso wie für Datenanalyse-Firmen wie Cambridge Analytica (vgl. dazu Nosthoff/Maschewski 2017). Die Selbstbeschreibungen dieser Firmen sind Teil einer Inszenierung unter Marketinggesichtspunkten.[7] Dennoch wird man davon ausgehen können, dass politische Meinungsbildungsprozesse durch Praktiken dieser Art beeinträchtigt werden. Gesetzgeber und Technikunternehmen stehen hier vor komplexen Phänomene, die auf vielfältige Weise zusammenwirken. Entsprechend komplex sind die (Selbst-)Regulierungsaufgaben.


III. Regulierte Selbstregulierung

Auf europäischer Ebene hat sich eine Reihe von Akteuren dem Problem der gezielten Meinungsmanipulation in den sozialen Netzwerken angenommen (vgl. die Übersicht bei Bradshaw et al. 2018). Dazu gehören die Mitgliedstaaten, wie auch die EU selbst. Die EU-Kommission hat im November 2018 einen Aktionsplan gegen Desinformation verabschiedet. Er sieht vor, dass sich die Regierungen der Mitgliedstaaten (mit Blick auf die Europawahl und darüber hinaus) abstimmen, um effektiv gegen Desinformationskampagnen vorzugehen.[8] Der Aktionsplan steht in einer Reihe von zunächst rechtlich unverbindlichen Maßnahmeplänen, die die Mitgliedstaaten wie auch die sozialen Netzwerke zur Bekämpfung von Desinformation anhalten und eine intakte Kommunikation in den sozialen Medien ermöglichen sollen.[9] Die Aktions- und Maßnahmepläne auf europäischer Ebene entfalten trotz ihrer rechtlichen Unverbindlichkeit Wirkung, weil sie mit der Androhung möglicher Regulierung verbunden sind und auf diese Weise die sozialen Medien zu selbstregulatorischen Maßnahmen anhalten.[10] Die Unternehmen haben zudem eigene Interessen daran, die Integrität der Plattformen gegen Desinformationen zu sichern (Frau-Meigs 2018, S. 26 ff.).

Selbstverpfichtungen und Gemeinschaftsstandards

Den Selbstregulierungsbemühungen der sozialen Netzwerke kommt schon aufgrund ihres Wissens und ihrer technischen Möglichkeiten eine besondere Bedeutung zu. Als Intermediäre können sie umfassende Selbstregulierungsansätze verfolgen, die über das Löschen von Falschmeldungen und Fake-Accounts hinausgehen. Sie entscheiden mit ihren Formaten darüber, welche Inhalte angezeigt werden, wie sie zur Darstellung kommen und sichtbar werden (Gillespie 2018). Zu den Maßnahmen, die Facebook angekündigt hat, gehört etwa die Ausweitung des Faktenprüferprogramms, bei dem das Unternehmen mit der Deutschen Presseagentur zusammenarbeitet.[11] Auch für die Wahlwerbung wurden verschärfte Regeln aufgestellt. Um den ausländischen Einfluss auf nationale Kampagnen zu begrenzen, verlangt Facebook, dass sich alle Werbetreibenden in dem Land, in dem sie politische Werbung kaufen wollen, registrieren.[12] Die Gemeinschaftsstandards und Nutzungsbedingungen wurden entsprechend angepasst, um gegen "koordiniertes unauthentisches Verhalten" vorgehen zu können.[13]

Gesetzliche Vorgaben

Auch wenn gesetzliche Vorgaben einen anderen Grad an Verbindlichkeit als Selbstverpflichtungen der sozialen Netzwerke haben, bedeutet das nicht, dass sie das Problem der Desinformation effektiver lösen. Trotz des erklärten Anspruchs in der Gesetzesbegründung ist das bundesdeutsche NetzDG kein effektives Instrument gegen die gezielte Verbreitung von Falschnachrichten und Desinformation.[14] Der Schwerpunkt des NetzDG liegt darauf, die Verbreitung rechtswidriger Inhalte (§ 1 Abs. 3 NetzDG) zu unterbinden. Desinformationen, wenn sie nicht Straftatbestände wie Verleumdung oder üble Nachrede erfüllen, fallen nicht in den Anwendungsbereich des Gesetzes. Gleiches gilt für die Nutzung falscher Profile und die Steuerung ganzer "Botarmeen".


1

2

3

Vor