Publikationen / vorgänge / vorgänge Nr. 225/226: Meinungsfreiheit in Zeiten der Internetkommunikation

„Fake News“, „Infox“, Troll­fa­briken

Über den Umgang mit Desinformationen in den sozialen Medien

in: vorgänge Nr. 225/226 (1-2/2019), S. 97-108

Die sozialen Medien haben sich als eigenständige globale Kommunikationsinfrastruktur etabliert und sind zu einer wichtigen Sphäre der politischen Auseinandersetzung geworden. Auch Falschnachrichten und Desinformation haben darin einen festen Platz. Schillernde Begriffe wie „Fake News“ oder „Social Bots“ bestimmen wiederholt die Diskussionen um den Zustand der demokratischen Öffentlichkeit. Der Beitrag erläutert verschiedene Erscheinungsformen und Wirkungsweisen von Desinformation sowie Regulierungs- und Selbstregulierungsoptionen. Nicht nur der Gesetzgeber geht, wie in Frankreich mit dem „Gesetz gegen die Manipulation von Informationen„, gegen Desinformation und die Verbreitung von Falschnachrichten vor. Auch die sozialen Netzwerke verschärfen ihre Gemeinschaftsstandards und bemühen sich – insbesondere unter dem Eindruck von Aktions- und Maßnahmeplänen auf europäischer Ebene – um eine effektive Durchsetzung. Dies steht in einem Spannungsverhältnis zur grundrechtlich gewährleisteten Meinungsfreiheit.

I. Einleitung

Desinformation und Falschmeldungen, Gerüchte und Halbwahrheiten waren schon immer ein politisches Mittel und Bestandteil politischer Prozesse. Dass politische Propaganda und Desinformationskampagnen in den sozialen Medien einen festen Platz haben (Bradshaw/Howard 2018), ist daher nicht überraschend. Die großen sozialen Netzwerke und Kommunikationsplattformen haben, was ihre Bedeutung für die öffentliche Meinungsbildung angeht, zu den klassischen Massenmedien aufgeschlossen.[1] Soziale Medien sind zu einer wichtigen Sphäre der politischen Auseinandersetzung geworden. Es sind Orte, an denen um Einfluss und Meinungsmacht gerungen wird. Wie jede mediale Neuerung haben auch sie ihre eigenen Propagandamittel hervorgebracht (Benkler et al. 2018). Auch wenn die Auswirkungen der Verbreitung von Falschinformationen auf politische Willensbildungsprozesse und das Wahlverhalten unklar sind und die empirische Forschung vielfach erst am Anfang steht, bestimmen Begriffe wie „Fake News“ (im Französischen auch „Infox“ genannt) oder „Social Bots“ in unterschiedlichen Konjunkturen und Erregungswellen die Debatte um den Zustand der demokratischen Öffentlichkeit. In politischen Auseinandersetzungen sind es sehr gebräuchliche, aber letztendlich auch schillernde Begriffe. Wenn man sich über Regulierungsmöglichkeiten und die rechtlichen Rahmenbedingungen klarer werden will, kommt es zunächst darauf an, die Erscheinungsformen von Desinformationen deutlicher zu machen. Interventionen mit dem Ziel, Falschinformationen aus den sozialen Medien herauszufiltern und eine „unverzerrte“ Kommunikation zu gewährleisten, geraten leicht in ein Spannungsverhältnis zur Meinungsfreiheit. Das zeigt sich nicht nur in den Fällen, in denen autoritäre Regime Anti-„Fake News“-Gesetze dazu einsetzen, um gegen unliebsame Meinungen vorzugehen. Dies gilt auch unter den Vorzeichen demokratischer Verfassungsordnungen und nicht zuletzt für die Selbstregulierungsbemühungen der sozialen Medien. 

II. Desin­for­ma­tion in einer automa­ti­sierten Öffent­lich­keit

An der Diskussion über Desinformation in den sozialen Medien lässt sich ablesen, wie sehr sich die Erwartungen an die Internetkommunikation verändert haben. Dominierten zunächst optimistische Vorstellungen einer verflüssigten, direkteren Kommunikation, werden sie zunehmend als Quelle von Fehlentwicklungen verstanden, die nicht zuletzt die Bedingungen einer freien öffentlichen Meinungsbildung unterlaufen können. Unter Desinformationen werden dabei gezielt und bewusst gestreute Falschinformationen verstanden. Sie unterscheiden sich von den zirkulierenden Unwahrheiten, die ein fester Bestandteil der gesellschaftlichen Kommunikation und des demokratischen Diskurses sind. Politische Akteure können Desinformationen für die unterschiedlichsten Ziele einsetzen. Dies können kurzfristige strategische Ziele sein, etwa um den Ausgang politischer Entscheidungen oder die öffentliche Meinungsbildung zu beeinflussen. Die Ziele können aber auch längerfristiger sein und darin bestehen, das Vertrauen in das Funktionieren der demokratischen Öffentlichkeit insgesamt zu erschüttern. Wie die parlamentarischen Untersuchungen zum u.s.-amerikanischen Präsidentschaftswahlkampf und der Brexit-Abstimmung gezeigt haben, sind dies auch und insbesondere ausländische Akteure (zu den russischen Desinformationsstrategien vgl. etwa Mannteufel 2018 sowie Jamieson 2018).[2]Desinformationskampagnen werden mit den sich entwickelnden technischen Möglichkeiten subtiler. Sie zielen nicht nur auf die Verbreitung in den sozialen Netzwerken, sondern auf eine Rückkopplung mit den klassischen Medien und die Agenda der institutionalisierten Politik. Besonders gefährlich für die Integrität einer demokratischen Kommunikationsordnung ist es, wenn sich Desinformation mit klassischer Macht verbindet. Der Politikwissenschaftler Brendan Nyhan fasst die Ergebnisse einer umfangreichen Studie zu „Fake News“ im amerikanischen Wahlkampf folgendermaßen zusammen: „The most worrisome misinformation in U.S. politics remains the old-fashioned kind: false and misleading statements made by elected officials who dominate news coverage and wield the powers of government“ (Nyhan 2019). Postfaktische Politik kann sich dabei nicht mehr in einem HobbesschenSinn ausschließlich auf Machtsprüche und Autorität stützen („Auctoritas non veritas„). Eine Politik, die sich von Rechtfertigungsanforderungen entkoppeln will, bedarf spezifisch medialer Strategien. Die fortlaufende Diskreditierung medialer Berichterstattung als „fake news“ gehört dazu (Ross/Rivers 2018). Dazu gehören auch die für die sozialen Medien typische Personalisierung, das Herausstellen von Schwächen und Individualität sowie ein selbstbewusster Umgang mit den eigenen Lügen (Turner 2019).

Microtargeting

Desinformationskampagnen können an die Funktionslogik der sozialen Medien anschließen. Die Digitalisierung der Kommunikation und das dominierende, auf Werbeeinnahmen ausgerichtete Geschäftsmodell der Plattformen, das starke Anreize für ein kontinuierliches „Monitoring“ der Nutzer setzt, ermöglichen neue Formen der politischen Kommunikation und der gezielten Manipulation. Soziale Medien operieren auf der Basis einer datengetriebenen Ökonomie, die das Nutzerverhalten umfassend registriert. Dies eröffnet die Möglichkeit eines politischen „microtargeting„, also des gezielten Ansprechens von Nutzergruppen mit eigens auf sie zugeschnittenen (Des-)Informationskampagnen. Ein technisierter Wahlkampf kann an die „ausgelesenen“ Gewohnheiten, Verhaltensweisen und Bedürfnisse anknüpfen und versuchen, Stimmungen in politischer Absicht zu beeinflussen und Aufmerksamkeiten zu lenken (Zuboff 2018: 341 ff.). Microtargeting ist als solches noch nicht notwendig manipulativ oder eine spezifische Desinformationstechnik. Es ermöglicht es allerdings, verschiedene und zum Teil auch gegensätzliche Botschaften an die unterschiedlichen Wählergruppen zu senden und damit auch Falschinformationen gezielter und vielleicht auch wirkungsvoller zu verbreiten. Die Unterscheidung von manipulierter und prinzipiell freier politischer Willensbildung muss angesichts dieser Möglichkeiten noch einmal neu justiert werden.

Trollarmeen, Bots und Netzwer­k­ef­fekte

Die vom amerikanischen Senat und dem britischen House of Commons in Auftrag gegebenen Studien haben die Bandbreite der Strategien und die Funktionsweise von automatisierter Propaganda deutlicher werden lassen. Dazu gehören Praktiken wie der Einsatz professioneller „Trolle“ und hochautomatisierter Nutzeraccounts zur Verbreitung von Desinformation oder Hassbotschaften. Ziel ist es, die Deutungshoheit über bestimmte Vorgänge zu gewinnen. „Trolle“ sind reale Personen (wenn auch mit möglicherweise falschen Profilen). „Social Bots“ hingegen reagieren entsprechend ihrer Programmierung automatisiert auf Kommunikation in den sozialen Medien. Unter den Kommunikationswissenschaftlern ist dabei vieles umstritten. Die Unsicherheiten reichen von den Merkmalen, an denen ein „Social Bot“ als solcher erkannt wird, bis zum Ausmaß der Aktivitäten, die von automatisierten Accounts tatsächlich ausgehen.[3] Nach einem Bericht der Tageszeitung Die Welt vom Ende des vergangenen Jasetzt worden sein.[4] Der Artikel beruft sich auf die Ergebnisse einer Studie, deren Methodik nicht weiter erläutert wurde und deren Aussagekraft letztendlich fragwürdig blieb. Gleichwohl hat die Politik auf die Meldung schnell mit einer Forderung strengerer Regulierung von automatisierten Bot-Accounts reagiert.[5]

Der Einfuss auf die Meinungs­bil­dung

Weitgehend unklar ist auch, in welchem Maß die verschiedenen Praktiken der Desinformation die politische Meinungsbildung und das Wahlverhalten tatsächlich beeinflusst haben bzw. zu beeinflussen vermögen. Eine Schwierigkeit der Analyse von Online-Desinformationskampagnen resultiert daraus, dass die Daten der Unternehmen auch für wissenschaftliche Zwecke in der Vergangenheit nur sehr bedingt zugänglich waren.[6] Die Daten, die für die amerikanischen Studien zur Verfügung gestellt wurden, beziehen sich nicht auf die Reaktionen der Nutzer, die mit den Inhalten konfrontiert wurden. Die beteiligten Akteure haben ein Interesse, den Einfluss auf politische Ereignisse, Wahlen und Abstimmungen möglichst groß erscheinen zu lassen. Das gilt für die russische Internet Research Agency (IRA) genauso wie für Datenanalyse-Firmen wie Cambridge Analytica (vgl. dazu Nosthoff/Maschewski 2017). Die Selbstbeschreibungen dieser Firmen sind Teil einer Inszenierung unter Marketinggesichtspunkten.[7] Dennoch wird man davon ausgehen können, dass politische Meinungsbildungsprozesse durch Praktiken dieser Art beeinträchtigt werden. Gesetzgeber und Technikunternehmen stehen hier vor komplexen Phänomene, die auf vielfältige Weise zusammenwirken. Entsprechend komplex sind die (Selbst-)Regulierungsaufgaben.

III. Regulierte Selbst­re­gu­lie­rung

Auf europäischer Ebene hat sich eine Reihe von Akteuren dem Problem der gezielten Meinungsmanipulation in den sozialen Netzwerken angenommen (vgl. die Übersicht bei Bradshaw et al. 2018). Dazu gehören die Mitgliedstaaten, wie auch die EU selbst. Die EU-Kommission hat im November 2018 einen Aktionsplan gegen Desinformation verabschiedet. Er sieht vor, dass sich die Regierungen der Mitgliedstaaten (mit Blick auf die Europawahl und darüber hinaus) abstimmen, um effektiv gegen Desinformationskampagnen vorzugehen.[8] Der Aktionsplan steht in einer Reihe von zunächst rechtlich unverbindlichen Maßnahmeplänen, die die Mitgliedstaaten wie auch die sozialen Netzwerke zur Bekämpfung von Desinformation anhalten und eine intakte Kommunikation in den sozialen Medien ermöglichen sollen.[9] Die Aktions- und Maßnahmepläne auf europäischer Ebene entfalten trotz ihrer rechtlichen Unverbindlichkeit Wirkung, weil sie mit der Androhung möglicher Regulierung verbunden sind und auf diese Weise die sozialen Medien zu selbstregulatorischen Maßnahmen anhalten.[10] Die Unternehmen haben zudem eigene Interessen daran, die Integrität der Plattformen gegen Desinformationen zu sichern (Frau-Meigs 2018, S. 26 ff.).

Selbst­ver­pfich­tungen und Gemein­schafts­s­tan­dards

Den Selbstregulierungsbemühungen der sozialen Netzwerke kommt schon aufgrund ihres Wissens und ihrer technischen Möglichkeiten eine besondere Bedeutung zu. Als Intermediäre können sie umfassende Selbstregulierungsansätze verfolgen, die über das Löschen von Falschmeldungen und Fake-Accounts hinausgehen. Sie entscheiden mit ihren Formaten darüber, welche Inhalte angezeigt werden, wie sie zur Darstellung kommen und sichtbar werden (Gillespie 2018). Zu den Maßnahmen, die Facebook angekündigt hat, gehört etwa die Ausweitung des Faktenprüferprogramms, bei dem das Unternehmen mit der Deutschen Presseagentur zusammenarbeitet.[11] Auch für die Wahlwerbung wurden verschärfte Regeln aufgestellt. Um den ausländischen Einfluss auf nationale Kampagnen zu begrenzen, verlangt Facebook, dass sich alle Werbetreibenden in dem Land, in dem sie politische Werbung kaufen wollen, registrieren.[12] Die Gemeinschaftsstandards und Nutzungsbedingungen wurden entsprechend angepasst, um gegen „koordiniertes unauthentisches Verhalten“ vorgehen zu können.[13]

Gesetzliche Vorgaben

Auch wenn gesetzliche Vorgaben einen anderen Grad an Verbindlichkeit als Selbstverpflichtungen der sozialen Netzwerke haben, bedeutet das nicht, dass sie das Problem der Desinformation effektiver lösen. Trotz des erklärten Anspruchs in der Gesetzesbegründung ist das bundesdeutsche NetzDG kein effektives Instrument gegen die gezielte Verbreitung von Falschnachrichten und Desinformation.[14] Der Schwerpunkt des NetzDG liegt darauf, die Verbreitung rechtswidriger Inhalte (§ 1 Abs. 3 NetzDG) zu unterbinden. Desinformationen, wenn sie nicht Straftatbestände wie Verleumdung oder üble Nachrede erfüllen, fallen nicht in den Anwendungsbereich des Gesetzes. Gleiches gilt für die Nutzung falscher Profile und die Steuerung ganzer „Botarmeen“.

Demgegenüber zielt das französische „Gesetz gegen die Manipulation von Information“ unmittelbar darauf, die Verbreitung von Desinformation zu unterbinden.[15] Das Gesetz legt den Diensteanbietern Mitwirkungspflichten auf (vgl. insbesondere Art. 6 des Gesetzes). Die Plattformen haben u. a. ein leicht zugängliches und effektives Beschwerdesystem („notice and take down„) einzurichten, das es den Nutzern ermöglicht, die Diensteanbieter wie auch die zuständigen Behörden auf Falschinformationen aufmerksam zu machen. Damit einher gehen Transparenz- und Berichtspflichten. Das französische Recht kennt unabhängig von dieser gesetzlichen Neuerung eine Reihe von Bestimmungen, die der Verbreitung von Falschinformationen Grenzen setzen. Dazu gehören neben der Möglichkeit, zivilrechtlich gegen falsche Behauptungen vorzugehen, sowie den strafrechtlichen Sanktionen von Verleumdungen und Beeinträchtigungen der Privatsphäre auch presse- und medienrechtliche Bestimmungen, welche die Integrität der öffentlichen Kommunikationsordnung gewährleisten sollen. Dem Schutz der öffentlichen Kommunikationsordnung dienen insbesondere Bestimmungen im französischen Gesetz zur Pressefreiheit, das in seinen Kapiteln IV und V die Verbreitung von falschen Nachrichten („nouvelles fausses„, Art. 27) untersagt. Sie gehen über presserechtliche Sorgfaltspflichten und anerkannte journalistische Grundsätze nach bundesdeutschen Maßstäben hinaus.[16] Nach Art. L 97 des Wahlgesetzes (Code électoral) ist es zudem strafbewehrt, durch falsche oder verleumderische Nachrichten oder andere betrügerische Handlungen Einfluss auf Wahlen zu nehmen. Geschützt werden soll auf diese Weise neben der öffentlichen Meinungsbildung auch der politische Willensbildungsprozess. Das Gesetz gegen die Manipulation von Informationen eröffnet jetzt die Möglichkeit, mittels einer gerichtlichen Anordnung die Verbreitung falscher Informationen zu unterbinden. Die Anordnung kann gegenüber Host-, Content- und ggf. auch gegenüber Internetzugangsprovidern ergehen, ohne dass die Frage der Verantwortlichkeit für die Verbreitung der Information geklärt werden müsste. Darüber hinaus werden Transparenzverpflichtungen in Bezug auf politische Werbung formuliert. Die französische Medienaufsicht (Conseil supérieur de l’audiovisuel – CSA) erhält erweiterte Befugnisse und Sanktionsmöglichkeiten. Sie kann in letzter Konsequenz auch die Ausstrahlung eines ausländischen Senders unterbinden, wenn dieser Falschinformationen verbreitet. Der zeitliche Rahmen, in dem die Bestimmungen greifen, ist begrenzt (3 Monate im Vorfeld einer Wahl). Es handelt sich um eine Art Sonderregime zur Sicherung der Integrität der politischen Willensbildung, das nur im Vorfeld von nationalen Wahlen und Europawahlen Anwendung findet, also auf die Zeit des Wahlkampfes beschränkt ist.

IV. Grund­rechts­kon­fikte

Die Herausforderung für die Regulierung der sozialen Medien besteht nicht nur darin, effektive Instrumente gegen die Verbreitung von Falschnachrichten und Desinformation zu finden. Interventionen in die Kommunikationsordnung zum Schutz der öffentlichen Meinungsbildung müssen auch elementaren grundrechtlichen Anforderungen genügen. Dazu gehören nicht nur die wirtschaftlichen Freiheiten der Unternehmen, sondern vor allem auch die Kommunikationsgrundrechte. Interventionen in die Kommunikation in den sozialen Netzwerken zum Schutz vor Falsch- und Desinformation können die Meinungsfreiheit unverhältnismäßig einschränken. Dies gilt nicht nur für staatliche Gesetzgebung und gesetzlich angeordnete Lösch- und Filterpflichten. Grundrechtliche Bindungen hören nicht dort auf, wo der Bereich der privaten Selbstregulierung beginnt. Die großen sozialen Netzwerke und Kommunikationsplattformen haben – nach bundesdeutschem Grundrechtsverständnis – eine Verantwortung für die Meinungsfreiheit, die der privatautonomen Ausgestaltung öffentlicher Kommunikationsforen Grenzen setzt.

Schwierige Grenz­zie­hungen

Was die Konflikte mit der Meinungsfreiheit angeht, beginnen die Schwierigkeiten eines Vorgehens gegen Desinformationen schon bei der Definition und der Bestimmung der Voraussetzungen, unter denen ihre Verbreitung nicht mehr zulässig sein soll. Dies hat sich mit aller Deutlichkeit im französischen Gesetzgebungsverfahren gezeigt. Zu den Veränderungen, die der Entwurf im Zuge des Gesetzgebungsprozesses erfahren hat, gehören nicht nur der Titel des Gesetzes, der von „fausses informations“ zu „manipulation de l`information“ geändert wurde. Mit der Akzentverschiebung von „Falschnachrichten“ zu „Manipulation von Informationen“ wurden auch weitere qualifizierende Tatbestandsmerkmale eingeführt (s. dazu Hochmann 2018). Die Definition des Regelungsgegenstandes musste dem Umstand Rechnung tragen, dass auch falsche Tatsachenbehauptungen von der Meinungsfreiheit geschützt sein können (und häufig geschützt sind). Das Bundesverfassungsgericht schließt nur die bewusste Lüge vom Schutzbereich der Meinungsfreiheit aus. Zur Freiheit der Meinungsäußerung gehört es, auch Falsches behaupten zu können, ja sich nicht einmal die Frage stellen zu müssen, ob die Tatsachen, auf die sich eine Meinungskundgabe stützt, der Überprüfung standhalten werden.[17] Auch wenn unwahren Tatsachenbehauptungen kein besonderer Wert für die öffentliche Meinungsbildung zukommt, beeinträchtigen übersteigerte Wahrheits- und Sorgfaltspflichten die Wahrnehmung der grundrechtlichen Freiheiten. Falsche oder irreführende Tatsachenbehauptungen und abwegige Weltsichten sind Teil des demokratischen Diskurses, die man nicht einfach herauskürzen kann, ohne die öffentliche Meinungsbildung insgesamt zu beschädigen. Auch humoristische oder satirische Inhalte müssten von vornherein vom Anwendungsbereich eines Desinformationsgesetzes ausgenommen werden.

Die Verant­wor­tung der sozialen Netzwerke

Diese grundrechtlichen Maßstäbe gelten für die Kommunikation in den öffentlichen Foren der großen sozialen Netzwerke. Da die Grundrechte nicht lediglich (subjektive) Abwehrrechte des Bürgers gegen staatliche Interventionen sind, sondern Ausdruck einer verfassungsrechtlichen Grundentscheidung, haben sie Bedeutung für die Rechtsordnung insgesamt und wirken damit auch auf privatrechtliche Rechtsbeziehungen zurück.[18] So hat das BVerfG in mehreren Entscheidungen hervorgehoben, dass die zwar nicht unmittelbare, aber doch mittelbare Grundrechtsbindung Privater in ihrer Intensität der Grundrechtsbindung des Staates nahe oder auch gleichkommen kann, insbesondere dann, wenn Private die Voraussetzungen des Grundrechtsgebrauchs bestimmen. Für den Schutz der Kommunikation kommt nach der Rechtsprechung eine besondere Grundrechtsbindung insbesondere dann in Betracht, wenn private Unternehmen die Bereitstellung schon der Rahmenbedingungen öffentlicher Kommunikation übernehmen und damit in Funktionen eintreten, die – wie die Sicherstellung der Post- und Telekommunikationsdienstleistungen – früher dem Staat als Aufgabe der Daseinsfürsorge zugewiesen waren.[19] Die Implikationen dieser Rechtsprechungslinie sind im Einzelnen unklar. Allerdings dürfte den großen sozialen Netzwerken aufgrund ihrer Bedeutung für die öffentliche Kommunikation auch eine besondere Verantwortung für die Verwirklichung der Meinungsfreiheit zukommen. Trotz der privatrechtlichen Organisationsform schaffen soziale Netzwerke und Kommunikationsplattformen ein vielseitiges und offenes Kommunikationsgeflecht, das in Teilen die Charakteristika eines „public forum„, eines öffentlichen Diskussionsraums aufweist, für den konsequenterweise auch öffentlich-rechtliche Grundrechtsstandards gelten. Wenn für die Nutzer nicht vorhersehbar ist, mit welcher Tendenz Gemeinschaftsstandards angewandt werden, wird dies regelmäßig bereits einen Vertragsverstoß darstellen. Eine diffuse Löschpraxis, wie sie zuletzt Twitter im Umgang mit Äußerungen zur Europawahl an den Tag gelegt hat, unterläuft die Erwartungssicherheit, die für den Gebrauch einer Kommunikationsplattform essentiell ist. Darüber hinaus müssen Selbstregulierungsmaßnahmen gegen Desinformation auf der Basis privater Community-Standards elementaren Anforderungen der grundrechtlichen Meinungsfreiheit genügen. Die Ausübung grundrechtlicher Kommunikationsfreiheiten kann nicht nur durch diffuse Vorgaben für die Löschung von Beiträgen, sondern auch durch übersteigerte Anforderungen an die Wahrheitspflicht und das Ausschließen jeglicher Satire beeinträchtigt werden. Gegen Desinformationskampagnen bietet sich daher ein System des Content Management an, das nicht die Inhalte, sondern die Verhaltensmuster überprüft.[20]

PROF. DR. JÖRN REINHARDT ist seit 2017 Professor für Öffentliches Recht an der Universität Bremen.

Literatur

Benkler, Yochai; Faris, Robert; Roberts, Hal 2018: Network Propaganda: Manipulation, Disinformation and Radicalization in American Politics. Oxford.

Bradshaw, Samantha; Howard, Philip N. 2018: Challenging Truth and Trust: A Global Inventory of Organized Social Media Manipulation, abrufbar unter http://comprop.oii. ox.ac.uk/research/cybertroops2018/

Bradshaw, Samantha; Neudert, Lisa-Maria; Howard Philip N. 2018: Government responses to malicious use of social media, abrufbar unter: https://www.stratcomcoe.org/government-responses-malicious-use-social-media.

Frau-Meigs, Divina 2018: Societal costs of “fake news” in the Digital Single Market, Study for the Committee on the Internal Market and Consumer Protection, Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Luxembourg.

Gillespie, Tarleton 2018: Custodians of the internet. Platforms, content moderations, and the hidden decisions that shape social media, New Haven.

Hochmann, Thomas 2018: Lutter contre les fausses informations : le problème préliminaire de la définition, RDLF, chron. n°16, abrufbar unter: http://www.revuedlf.com/ droit-constitutionnel/lutter-contre-les-fausses-informations-le-probleme-preliminaire-de-la-definition/.

Holznagel, Bernd 2018: Phänomen „Fake News“ – Was ist zu tun?, Multimedia und Recht, S. 18-22.

Jamieson, Kathleen Hall 2018: Cyberwar: How Russian Hackers and Trolls Helped Elect a President What We Don’t, Can’t, and Do Know. Oxford.

Jarren, Otfried 2019: Fundamentale Institutionalisierung: Social Media als neue globale Kommunikationsinfrastruktur, Publizistik, Vol. 64, H. 2, S. 163-179.

Kind, Sonja; Jetzke, Tobias; Weide, Sebastian et. al. 2017: Social Bots. TA-Vorstudie. Berlin. Abrufbar unter https://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte /TAB-Horizon-Scanning-hs003.pdf.

Kreiss, Daniel; McGregor, Shannon C. 2017: Technology Firms Shape Political Communication: The Work of Microsoft, Facebook, Twitter, and Google With Campaigns During the 2016 U.S. Presidential Cycle, Political Communication, S. 155-177.

Limbourg, Peter; Grätz, Ronald (Hrsg.) 2018: Meinungsmache im Netz. Fake News, Bots und Hate Speech, Göttingen.

Mannteufel, Ingo 2018: Russland: Desinformation 2.0 als Fortsetzung der Politik mit anderen Mitteln. Ziele, Methoden und Instrumente des Informationskrieges des Kremls, in: Limbourg/ Grätz (Hrsg.), Meinungsmache im Netz, S. 87-96.

Nosthoff, Anna-Verena; Maschewski, Felix 2017: „Democracy as Data“? – Über Cambridge Analytica und die „moralische Phantasie“, Merkur Blog, abrufbar unter: https://www.merkur-zeitschrift.de/2017/02/06/democracy-as-data-ueber-cambridge-analytica-und-die-moralische-phantasie/

Nyhan, Brendan 2019: Why Fears of Fake News Are Overhyped, Medium (4.2.2019), abrufbar unter: https://medium.com/s/reasonable-doubt/why-fears-of-fake-news-are-overhyped-2ed9ca0a52c9.

Reinhardt, Jörn 2018 : Les conflits de droit entre personnes privées: de l’« effet horizontal indirect » à la protection des conditions d’exercice des droits fondamentaux, in: Hochmann/ Reinhardt (Hrsg.), L’effet horizontal des droits fondamentaux, Paris, S. 149–176.

Ross, Andrew S.; Rivers, Damian J. 2018: Discursive Deflection: Accusation of „Fake News“ and the Spread of Mis- and Disinformation in the Tweets of President Trump, Social Media + Society, H. 4, S. 1-12.

Turner, Fred 2019: Machine Politics. The rise of the internet and a new age of authoritarianism, Harper‘s Magazine, H. 1, abrufbar unter: https://harpers.org/archive/ 2019/01/machine-politics-facebook-political-polarization/

Zuboff, Shoshana 2018: Das Zeitalter des Überwachungskapitalismus, Frankfurt/ New York.

Anmerkungen:

1 Sie haben sich als eigenständige globale Kommunikationsinfrastruktur etabliert (vgl. Jarren 2019) und prägen damit zunehmend auch die politische Kommunikation (Kreiss, McGregor 2017).

2 Im Fokus der parlamentarischen Untersuchungen in Großbritannien und den USA standen die Aktivitäten der russischen Internet Research Agency (IRA), die auf den amerikanischen Wahlkampf und die britische Brexit-Entscheidung Einfluss zu nehmen versuchten. Amerikanische und britische Wissenschaftler untersuchten für das Senate Select Committee on Intelligence (SSCI) das Ausmaß der Aktivitäten und die Art der Kampagnen. Zu den Desinformationskampagnen der russischen IRA siehe die Studien von New Knowledge unter https://www.newknowledge.com/articles/the-disinformation-report/ und den Bericht des Computational Propaganda Research Projects https://comprop.oii.ox.ac.uk/research/ira-political-polarization/. Zu den Untersuchungsergebnissen des britischen House of Commons s. https://publications.parliament.uk/pa/ cm201719/cmselect/cmcumeds/1791/179102.htm).

3 Zu Social Bots s. die TA-Vorstudie von Kind et al. 2017. Das Thesenpapier des TAB zur Wirkungsweise von Social Bots ist abrufbar unter https://www.bundestag.de/blob/488564/4a87d2d5b867 b0464ef457831fb8e642/thesenpapier-data.pdf.

4 Der Artikel „Roboter mobilisieren gegen Migrationspakt“ erschien am 10.12.2018, abrufbar unter https://www.welt.de/politik/deutschland/plus185205592/Social-Bots-Roboter-mobilisieren-gegen-den-Migrationspakt.html.

5 Vgl. zur Diskussion https://netzpolitik.org/2018/ein-bot-allein-macht-keine-revolte-und-auch-keine-migrationsdebatte/.

6 Dies zeigte sich auch in den Berichten für den amerikanischen Kongress. Der Großteil des (belastbaren) Wissens beruht auf den von den Unternehmen zur Verfügung gestellten Daten: „Most of what we know of Russia’s social media campaigns against voters in democracies comes from the small amounts of data released by the major social media firms“ (S. 4). Um die Struktur und Reichweite der IRA Aktivitäten zu verstehen, bedarf es großer Datenmengen.

7 Ein Hang zur Überhöhung lässt sich aber auch bei den politischen Akteuren beobachten. Das disruptive Potential, das sozialen Medien und Kommunikationstechnologien eigen ist, wird exzessiv in Anspruch genommen, um gesellschaftliche Problemlagen zu erklären. Komplexe Zusammenhänge wie das Erstarken des Populismus oder das Aufkommen sozialer Bewegungen lassen sich nicht einfach als Epiphänomene der Plattformökonomie und der digitalisierten Kommunikation begreifen, politische und gesellschaftliche Probleme nicht durch Social-Media-Regulierung lösen. Dabei handelt es sich um vordergründige Entlastungsstrategien.

8 S. JOIN (2018) 36 final.

9 „Verhaltenskodex zur Bekämpfung von Desinformation im Internet“ COM (2018) 236, abrufbar unter: https://ec.europa.eu/digital-single-market/en/news/code-practice-disinformation

10 So zeigte sich die Kommission zunächst unzufrieden mit den Bemühungen der sozialen Netzwerke und Intermediäre im Umgang mit Desinformation und falschen Accounts, https://ec.europa.eu/digital-single-market/en/news/first-monthly-intermediate-results-eu-code-practice-against-disinformation. Vgl. auch den Entwurf der Kommission für eine Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte, COM(2018) 640 final, der die Unternehmen dazu verpflichten würde, innerhalb einer Stunde terroristische Inhalte auf behördliche Anordnung zu entfernen.

11 Vgl. dazu die Mitteilung von Facebook, abrufbar unter: https://de.newsroom.fb.com/news/2019/ 03/dpa_faktenpruefer/.

12 Für Wahlwerbung und Werbung zu Themen von nationaler Relevanz hat Facebook einen Autorisierungsprozess eingeführt, vgl. dazu die Mitteilung https://www.facebook.com/business/help/167 836590566506.

13 S. https://www.facebook.com/fb/EuropeanElections.

14 Zum Anspruch vgl. BT-Drs. 18/12356, S. 1.

15 Loi organique et loi ordinaire relatives à la lutte contre la manipulation de l’information (22.12.2018) 2018-773 DC und 2018-774 DC.

16 Zu den Sorgfaltspflichten der Presse vgl. etwa § 6 PresseG Bremen sowie zu den journalistischen Grundsätzen § 10 RStV und § 54 Abs. 2 RStV.

17 Zur Rechtsprechung des Bundesverfassungsgerichts vgl. BVerfG, Beschluss v. 10.11.1998, 1 BvR 1531/96 – Helnwein. Bei Äußerungen, die einen Beitrag zu öffentlichen Meinungsbildung darstellen, besteht eine Vermutung für die Freiheit der Rede (ständige Rechtsprechung seit BVerfGE 7, 198 – Lüth). Der Wahrheitsgehalt einer Äußerung und das Einhalten von Sorgfaltspflichten fallen bei der Abwägung ins Gewicht.

18 Nach Art. 1 Abs. 3 GG binden die Grundrechte die Hoheitsgewalt als unmittelbar geltendes Recht. Einen entsprechenden Ausgangspunkt wählt auch die Europäische Grundrechtecharta, vgl. Art. 51 Abs. 1 GRCh. Das private Unternehmen wie Facebook nicht unmittelbar wie der Staat an die Grundrechte gebunden sind, bedeutet nicht, dass sie keinen grundrechtlichen Bindungen unterliegen. Allerdings sind Art und vor allem Ausmaß der Bindung erläuterungsbedürftig; vgl. zum Ganzen Reinhardt 2018.

19 BVerfG, Urteil vom 22.2.2011, 1 BvR 699/06 – Fraport, Rn. 59. Die Frage nach der Reichweite der mittelbaren Grundrechtsbindung von marktbeherrschenden sozialen Netzwerken wird von den Fachgerichten bisher uneinheitlich beantwortet. Während bspw. OLG Stuttgart, Beschl. v. 6.9.2018, 4 W 63/18 davon ausgeht, dass Facebook Beiträge auch unterhalb der Strafbarkeitsschwelle unter Hinweis auf Gemeinschaftsstandards löschen kann, gehen andere Oberlandesgerichte von einer der staatlichen vergleichbaren Bindung des sozialen Netzwerks aus (vgl. OLG München, Beschl. v. 24.8.2018, 18 W 1294/18). Eine höchstrichterliche Entscheidung steht bisher noch aus.

20 Vgl. zu dieser Vorgehensweise auch die Mitteilung von Facebook v. 6.5.2019, https://newsroom. fb.com/news/2019/05/more-cib-from-russia/.

Dateien

nach oben