Sie befinden sich hier: Start |Publikationen |vorgänge |Online-Artikel |

vorgänge: Artikel - 16.07.19

Community Standards + KI + Beirat = Informationsfreiheit weltweit?

Matthias Spielkamp

in: vorgänge Nr. 225/226 (1-2/2019), S. 81-90

Das deutsche Netzwerkdurchsetzungsgesetz hat weltweit Aufsehen erregt. Obwohl in Deutschland nahezu einhellig und zum Teil sehr scharf kritisiert, weckt es in anderen Ländern die Hoffnung, man könne große Informationsintermediäre wie Facebook, Google/Youtube und Twitter mithilfe strengerer Gesetze endlich "in die Schranken weisen". Das ist durchaus verständlich in Ländern, die mit wesentlich schlimmeren Auswirkungen koordinierter Desinformationskampagnen zu kämpfen haben als Deutschland. Andererseits ist es wenig aussichtsreich und offenbart ein Dilemma, das nahezu ausweglos erscheint: auf grenzübergreifenden Plattformen landesspezifische Kulturen der Informationsfreiheit durchzusetzen, ohne zugleich die Informationsfreiheit weltweit einzuschränken.

 

Den so genannten Informationsintermediären[1] wie Facebook, Twitter und Youtube (Google) weht weltweit der Wind ins Gesicht. In Deutschland wurde das höchst umstrittene Netzwerkdurchsetzungsgesetz eingeführt (s. Diskussionen in diesem Band), das von autokratischen und autoritären Regimes wie in Russland[2], den Philippinen[3] oder Malaysia[4] als Vorbild genommen wird, aber auch in anderen demokratischen Ländern Hoffnungen weckt, mithilfe gesetzlicher Regulierung koordinierte Desinformationskampagnen und "Hassrede" eindämmen zu können. Das französische Parlament hat ein so genanntes "Fake-News-Gesetz" erlassen, wonach Richter_innen in Wahlkampfzeiten von Anbietern verlangen können, Falschnachrichten augenblicklich aus dem Netz zu nehmen.[5] Eine EU-Regulierung verpflichtet Informationsintermediäre dazu, "terroristische" Inhalte innerhalb einer Stunde zu löschen. Auch in den USA, die traditionell eine libertäre Auffassung von Informationsfreiheit vertreten, mehren sich Forderungen danach, die "Social Networks" stärker zu beschränken.

Vermutlich als Reaktion auf diesen weltweit zunehmenden Druck hat Facebook als erster großer Akteur nun einen auf den ersten Blick geradezu revolutionären Vorschlag vorgelegt: Das Unternehmen werde eine Art externen, unabhängigen Beirat einberufen, der in kontroversen Fällen letztendlich die Entscheidung darüber treffen soll, ob ein Beitrag gelöscht werden oder bestehen bleiben soll. Bei näherer Betrachtung sorgt dieser Vorschlag dafür, ein Dilemma herauszuarbeiten, das unauflösbar anmutet: auf grenzübergreifenden Plattformen landesspezifische Kulturen der Informationsfreiheit durchzusetzen, ohne zugleich die Informationsfreiheit weltweit einzuschränken.

 

Community Standards + KI + Beirat = Informationsfreiheit weltweit?

In einem fast 5.000 Worte langen "Blogbeitrag"[6] hat das Unternehmen[7] seine Vorstellungen davon dargelegt, wie es mit der Herausforderung umgehen kann, dass es zugleich möglichst viele Beiträge seiner Nutzer_innen auf der Plattform veröffentlichen kann, und zugleich in möglichst vielen Ländern operieren darf. Die Überschrift lautet "Eine Blaupause für Governance und Durchsetzung"; der Beitrag legt dar, wie auf der Basis von Facebooks "Community Standards" so genannte "schädliche Inhalte" identifiziert und "grenzwertige" Inhalte abgewendet werden können. Nutzer_innen sollen mehr Kontrolle darüber bekommen, welche Inhalte ihnen angezeigt werden. Da die Identifizierung der schädlichen Inhalte mithilfe von Techniken der so genannten "Künstlichen Intelligenz" erfolgen soll, die anfällig dafür sind, Vorurteile zu enthalten und zu verstärken, sollen die Technologien besonders auf diese Vorurteile ("algorithmic bias") hin überprüft werden. Zudem will das Unternehmen ein Berufungsverfahren aufbauen, mit dem Nutzer_innen gegen ungerechtfertigte Löschungen vorgehen können. Dieses Verfahren soll von dem oben genannten unabhängigen Aufsichtsgremium kontrolliert werden, dessen Entscheidungen sich das Unternehmen unterwerfen will. Zudem sollen Transparenz über das Verfahren her- und Daten zu Verfügung gestellt werden, um Forschung dazu zu ermöglichen. Schließlich kündigt Zuckerberg an, bei der Frage nach effektiverer Regulierung mit Regierungen zusammenzuarbeiten.[8]

Facebook steckt schon lange in einer Klemme. Das Unternehmen wird gleichzeitig dafür kritisiert, dass es nicht genug "hate speech" und "Fehlinformationen" löscht. Diese Kritik kommt vorwiegend von betroffenen Bürger_innen, Regierungen und einigen Aktivist_innen. Andere Bürger_innen und Aktivist_innen (aber keine Regierungen) hingegen kritisieren das Unternehmen dafür, dass zu viele legale Inhalte entfernt werden.

Die erste Fraktion geht so weit zu behaupten, Facebook sei eine Gefahr für die Demokratie, weil das Unternehmen Menschen erlaube, Hass zu sähen, die öffentliche Debatte und sogar Wahlen manipuliere. Die zweite argumentiert, Facebook sei eine Bedrohung für die Redefreiheit, weil es auf Grundlage seiner "Community Standards" Inhalte blockiere, die in den jeweiligen Ländern eigentlich legal seien. Weil Facebook so dominant sei, dass Menschen nicht einfach eine andere Plattform wählen könnten - und Facebook damit einen Teil der Öffentlichkeit selbst darstelle -, bedeute das, die Debatte als solche sei in Gefahr.
Um die Gültigkeit der These "Facebook ist eine Gefahr für die Demokratie" soll es in diesem Beitrag nicht gehen. Ich denke, dass diese Behauptung übertrieben ist, weil sie Facebook zu viel Macht zuschreibt und dabei von wichtigen Diskussionen über die Gründe ablenkt, warum Demokratien in der Tat gefährdet sind. Aber die These ist da und wird überall auf der Welt aufgestellt; und sie hat genug Wirkung, um das Unternehmen zum Handeln zu zwingen - wie eben durch das deutsche Netzwerkdurchsetzungsgesetz, das Strafgelder von bis zu 50 Millionen Euro vorsieht, wenn die Intermediäre illegale Inhalte systematisch nicht schnell genug löschen.

Das Gesetz wurde von vielen Interessenvertreter_innen scharf dafür kritisiert, Anreize zum "übermäßigen Blockieren" zu setzen. Anders gesagt: Netzwerke werden dazu veranlasst, vorschnell vermeintlich problematische Inhalte zu löschen, um Geldstrafen zu vermeiden. Verteidiger_innen der Redefreiheit kritisieren Facebook allerdings ohnehin seit Jahren dafür, unliebsame Beiträge zu löschen, die in den jeweiligen Ländern völlig legal sind.

Die Gründe: Zum einen muss sich Facebook als US-Firma an die Gesetze der USA halten, also Inhalte löschen, die in den USA rechtswidrig sind - oder auch nur politisch problematisch und daher dazu führen könnten, dass die US-Gesetze verschärft werden. Zum anderen will das Unternehmen Inhalte verbreiten, die zwar kontrovers sind, weil diese Inhalte zu besonders viel Interaktion anspornen, was wiederum durch die Logik der Plattform zu mehr Werbeeinnahmen führt. Zum anderen sollen diese Inhalte aber nicht so kontrovers sein, dass sie Nutzer_innen davon abhalten, Facebook zu nutzen. Diese Balance soll mithilfe von Facebooks so genannten "Community Standards" erreicht werden - die keine Standards sind, die eine Gemeinschaft entwickelt hat, sondern als Standards des Unternehmens dazu dienen, "die Gemeinschaft", also die Nutzer_innen, zu kontrollieren.

Der grenzüberschreitende Charakter des Netzes bringt Anbieter wie Facebook, Twitter und Youtube in ein Dilemma. Wenn sie das Gesetz eines Landes (z. B. der USA) zur alleinigen Grundlage dafür machten, was zulässig ist, dann könnten sie als Konsequenz in vielen anderen Staaten der Welt nicht tätig sein - das gilt nicht nur für Saudi-Arabien, China oder Vietnam, sondern auch für Deutschland oder Frankreich. Macht man aber die Gesetze aller Staaten, in denen die Firma operiert, zur Grundlage, dann würde das entweder dazu führen, dass nahezu gar keine Inhalte mehr zu sehen wären oder es kein grenzüberschreitendes Netzwerk gäbe. Warum?

 

Grenzenloses Internet vs. kulturelle Kontextualität

Selbst zwischen demokratischen Rechtsstaaten sind die kulturellen Auffassungen davon, was zu äußern erlaubt ist, so unterschiedlich, dass es in vielen Fällen keinen gemeinsamen Nenner gibt. Beispiele dafür sind die Darstellungen von Nacktheit und der Umgang mit dem Völkermord an den Juden, aber auch die Privatsphäre: Was in den USA und Großbritannien erlaubte Berichterstattung ist, in der etwa der Name von Verdächtigen genannt wird, kann in Deutschland bereits eine Persönlichkeitsrechtsverletzung sein. Würde man nun in Zweifelsfällen das jeweils restriktivere Gesetz anwenden, würden auf Plattformen wie Facebook, Youtube und Twitter wohl Milliarden von Beiträgen verschwinden.

Ein möglicher Ausweg: Der Intermediär gestaltet sein Angebot so, dass Menschen in einem bestimmten Land immer nur "die Inhalte dieses Landes"[9] zu sehen bekommen, die dadurch auch konform mit den Gesetzen des jeweiligen Landes sein könnten. Dieses Verfahren wird - mit Einschränkungen - von China verwendet, das versucht, durch ein hochentwickeltes Zensursystem dafür zu sorgen, dass im Land nahezu nur Inhalte zu sehen sind, die mit den Ansichten der Obrigkeit vereinbar sind. Aber auch Unternehmen setzen das so genannte Geoblocking ein, etwa um kommerzielle Interessen durchzusetzen. So ist es nicht möglich, als Kundin von Video-Streaming-Plattformen alle Filme zu sehen, die das Unternehmen im Angebot hat, weil die Rechteinhaber Inhalte unterschiedlich lizenzieren. Beispiel: Eine Produktionsfirma verkauft die Rechte eines von ihr produzierten Films in Deutschland an Sky, in den USA an Netflix. Dann kann die Netflix-Kundin den Film in Deutschland nicht sehen, weil Netflix ihren Standort technisch erkennt und technisch den Zugang verhindert. Reist sie in die USA, kann sie den Film über ihren Netflix-Zugang sehen. Dieses Verfahren ist vor allem innerhalb der EU höchst umstritten, weil die EU-Kommission davon ausgeht, dass ein gemeinsamer Binnenmarkt auch für digitale Güter gelten muss und EU-Bürger_innen daher in allen Ländern Zugriff auf das Repertoire an Inhalten von Musik-, Video und anderen Inhaltsangeboten verfügen können müssen, auf das sie in ihrem Heimatland Zugriff haben.

Mit Geolokalisierung und dem darauf aufbauenden Geoblocking könnten also Intermediäre wie Facebook, Youtube oder Twitter dafür sorgen, dass die meisten Menschen in einem bestimmten Land auch nur Inhalte sehen, die in diesem Land legal sind. Verteidiger_innen der Informationsfreiheit kritisieren am Geoblocking jedoch, dass es das Internet in ein so genanntes "Splinternet" (von Splinter, engl. für Splitter) verwandelt: weg von einem globalen Kommunikationsnetz, hin zu einem Flickenteppich verschiedenster Netze, über die nur noch sehr eingeschränkt grenzübergreifend kommuniziert werden könnte.
Auch Staaten mit einem hohen Maß an Informationsfreiheit kritisieren den Ansatz, da damit unter anderem verhindert würde, dass global verfügbare Netzwerke einen - von ihnen gewünschten - Effekt haben können: staatliche Zensur in autoritären und diktatorischen Staaten zu umgehen und damit möglicherweise demokratisierend zu wirken. Denn die meisten dieser Länder sind technisch nicht in der Lage, den Zugang zu ausgewählten, von ihnen unerwünschten Inhalten auf Facebook, Twitter oder Youtube zu verhindern, schrecken aber davor zurück, den Zugang zu den Plattformen vollständig zu sperren (was technisch leichter möglich wäre), da diese von sehr vielen Bürger_innen und Unternehmen der Länder genutzt werden - und nicht zuletzt auch oft von den Regierungen für deren eigene Zwecke.
Angleichung nach unten oder ein zerrissenes Internet
Deshalb sind beide Optionen - also der "kleinste gemeinsame Nenner" und das Splinternet - sowohl für Facebook, als auch für die Verfechter_innen der Redefreiheit unerwünscht.


1

2

3

Vor