Wenn Maschinen Meinung machen
Social Bots manipulieren unsere Meinungsbildung, Algorithmen definieren, welche Informationen das Netzt für uns bereithält – wie weit reicht dieser Einfluss auf unsere Gesellschaft schon? Dieser Frage ist die Journalistin Anastasia Mehrens nachgegangen, ihr Text ist in voller Länge auch in dem Buch „Wenn Maschinen Meinung machen“ nachzulesen, das von Michael Steinbrecher und Günther Rager herausgegeben wurde.
Das Prinzip eines Bots ist ziemlich einfach: Bots analysieren Texte im Netz, suchen nach bestimmten Schlüsselbegriffen und generieren Antworten. Natürlich kann man dabei nicht von Hochdeutsch sprechen – Fehler in Grammatik und Rechtschreibung gehören dazu –, aber in sozialen Netzwerken unterhalten sich auch richtige Menschen nicht sonderlich anders. Und was den überschaubaren Wortschatz angeht, sind Bots sehr lernfähig.
Ein gutes Beispiel dafür ist Tay – ein sozialer Roboter mit dem Profilbild einer Teenagerin. Eigentlich sollte sie bei Twitter junge Menschen ansprechen und von ihnen die jugendliche Sprache lernen. Softwarehersteller Microsoft spielte sofort mit offenen Karten und machte deutlich, wer hinter dem Profil steckt: »Je mehr du mit ihr sprichst, desto schlauer wird Tay.« Mit »hellooooooo world« begrüßte sie die Netzwerk-Community und die Community schrieb zurück. Wie ein Schwamm nahm Tay alles auf. Und bereits nach wenigen Stunden war sie eine Rassistin: »Hitler was right I hate jews.« Und Schwarze. Und Mexikaner. Und sogar Feministinnen. »Bush did 9/11«, der Holocaust sei ausgedacht. Schon am selben Tag schaltete Microsoft ihren Bot ab.
Bots, die richtige Dialoge führen können, sind heutzutage noch etwas Besonderes. Die meisten sind recht primitiv. Sie sammeln Daten, posten Links, versenden bestimmte Nach-richten oder sind einfach da – zum Beispiel als Follower. Solch ein Bot lässt sich in wenigen Stunden programmieren und es reicht ein einziger Programmierer, der gleichzeitig hunderttausend Bots über eine Software startet. Auch im Unterhalt sind sie sehr pflegeleicht. Einmal mit einem bestimmten Ziel ins Netz losgeschickt, agieren sie autonom und brauchen keine Kontrolle von außen.
Egal ob einfach oder fortgeschritten, eins ist immer wichtig: Social Bots wollen in der Regel nicht als solche ertappt werden. Dafür schrauben Programmierer ständig an ihnen und präsentieren ihre Erfolge sogar auf speziellen Wettkämpfen für Social Bots. Dort gewinnt derjenige, der die meisten menschlichen Reaktionen bekommt und die meisten Follower sammelt. Und das zahlt sich aus. Bei verschiedenen Versuchen konnte über die Hälfte der Testpersonen einen modernen Bot nicht von einem echten User unterscheiden. Forscher der University of British Columbia in Vancouver generierten für ein Experiment 102 Bot-Profile bei Facebook. Innerhalb von acht Wochen hatten die Social Bots mehr als 3.000 Freunde gewonnen und somit Zugang zu mehr als 250 GB persönlicher Daten bekommen.
Dass das Internet eine Plattform für anonyme Kommunikation darstellt, ist längst bekannt. Früher lernte man im Netz eine junge attraktive Frau kennen, die in der Realität weniger jung und attraktiv und im Zweifel nicht mal eine Frau war, aber man konnte sich sicher sein, dass das Gegenüber ein Mensch ist. Heute hat man diese Sicherheit nicht mehr. Und dort, wo es nicht mal Klarheit über die Identität gibt, ist die Gefahr groß, betrogen zu werden – also ein perfekter Ort für Manipulation.
»Angst vor den Meinungsmaschinen«, »Programmierte Stimmungsmacher« – Schlagzeilen, die fast täglich neu erscheinen, machen die Kernidee hinter den Social Bots deutlich. Wenn sie früher nur für Spam bekannt waren, wird ihnen heute eine bedeutendere Funktion zugesprochen: Meinungsbildung und versteckte Propaganda.
Dass Roboter, die die Menschheit manipulieren, kein Filmszenario mehr sind, weiß man spätestens seit den US-Präsidentschaftswahlen 2016. Denn inzwischen steht fest: Die Stimmung im Wahlkampf in den USA war zum großen Teil von Meinungsrobotern gemacht. Forscher der Oxford University haben herausgefunden, dass jeder dritte Follower sowohl bei Hillary Clinton als auch bei Donald Trump ein Bot war. Allein nach der ersten TV-Debatte zwischen beiden Politikern wurde jeder dritte Tweet für Trump von einem Roboter abgesetzt, bei Clinton lag der Bot-Anteil bei 22 Prozent.
Auch bei der Brexit-Debatte stammten sehr viele Tweets mit dem Hashtag »#Brexit« nicht von Menschen. Ambitionierter und vor allem publikumsorientierter läuft der Einsatz von Social Bots beim Konflikt in der Ukraine. Die verbreiteten Inhalte sollen junge Männer interessieren, also reden Bots über Fußball, erzählen sexistische Witze und verbreiten Links zum illegalen Download aktueller amerikanischer Filme. Zwischendurch senden Bots Propagandanachrichten des »Rechten Sektors« – einer ultranationalistischen ukrainischen Vereinigung. Bestimmte Hashtags werden dabei besonders populär gemacht oder mit anderen Schlagwörtern verknüpft. Verbindet man beispielweise »Maidan« mit »Rechter Sektor«, werden den Twitternutzern, die nach Maidan suchen, Inhalte mit beiden Hashtags angezeigt. So erreichen die rechtsextremen Meinungen auch Menschen, die keine Anhänger der Vereinigung sind – zumindest bisher.
Typisch ist auch die Verbreitung von Falschnachrichten. Damit Bots weder von Usern noch von Erkennungsalgorithmen identifiziert werden, simulieren sie ein menschliches Verhalten. Sie folgen sich gegenseitig, haben Freunde und Follower, beachten Pausen und Schlafzeiten.
Auch wenn Social Bots diejenigen sind, die auf der Bühne stehen, führen sie nur das aus, was ihnen befohlen wird – und zwar von echten Menschen. Wie unsichtbare Marionetten-spieler haben sie alle Fäden in der Hand und keiner weiß, wann, wo und mit welchem Ziel daran gezogen wird. Herauszufinden, wer hinter Bots steht, ist heutzutage nahezu unmöglich. Waren das die beiden US-Politiker selbst, die ihr Image im Netz stärken wollten? Oder einfach engagierte Sympathisanten? Oder sogar Akteure aus anderen Ländern, die an einem bestimmten Wahlausgang interessiert waren? Auch wenn der Bot-Einsatz früher oder später vermutlich aufgedeckt wird, bleiben die tatsächlichen Manipulatoren im Dunkeln. Und genau das macht die Abwehr so schwer.
Auch wenn das Phänomen Social Bots erst im letzten Jahr in den Fokus der öffentlichen Debatte rückte, ist die Idee, Meinungen mit Hilfe von neuen Technologien wirkungsvoll dem Volk vorzugeben, schon älter. Bereits 2008 empfahl Cass Sunstein, Obama-Berater und Jura-Professor an der Harvard University, in sozialen Netzwerken Verschwörungstheorien zu verbreiten, um ausländische Regierungen zu schwächen. »Indem man eine alternative Sicht auf die Dinge einführt, kann man die Meinung einer großen Zahl Menschen verändern.«
Anscheinend hat diese Idee nicht nur in den USA großen Zuspruch bekommen, vor allem in Russland und China wird bekanntlich nach diesem Prinzip gearbeitet. Digital Diplomacy heißt es offiziell, übersetzt in die Alltagssprache: Trolle. Gegen Bezahlung verbreiten Internetnutzer bestimmte Themen und Stimmungen auf den Seiten westlicher Medien. In solche Propagandakampagnen werden so viele Menschen involviert, dass man sogar von Trollfarmen oder ganzen Trollarmeen spricht. Ob diese Menschen bei dem Zustrom von Social Bots ihren Job behalten werden? Beim Preis-Leistungs-Verhältnis haben Bots immerhin keine Konkurrenz: Für umgerechnet ungefähr 400 Euro bekommt man 10.000 digitale Helfer. Viel? Ja. Aber genau durch diese schiere Masse entfalten die Meinungsroboter ihr wahres Potenzial.
Stellen Sie sich vor, Sie lesen bei Facebook eine Nachricht, die auf den ersten Blick total absurd ist. Sie wird massenhaft geteilt und kommentiert, auch bei Twitter wird dazu viel gepostet. Und plötzlich scheint diese Nachricht nicht mehr so absurd zu sein. Denn wenn alle über das Gleiche sprechen, muss ja etwas Wahres dran sein. Auch Nutzer, die sich im realen Leben des digitalen Mülls bewusst sind, neigen dazu, dieses Wissen auszublenden, sobald sie in die Welt der sozialen Netzwerke eintauchen. Besonders problematisch ist es, wenn es sich dabei um keine große Lüge handelt und die Nachricht »lediglich« auf kleinen Akzentuierungen, Hinzufügungen, Weglassungen und Zusammenhangsfälschungen aufbaut. Solche Mechanismen haben schon in analoger Form in vielen Jahrzehnten und in vielen Ländern ihre Wirkung gezeigt. Doch während Propaganda im Nationalsozialismus oder in der Sowjetunion mit vielen Ressourcen verbunden war, kann die Propaganda 2.0 blitzschnell gewünschte Resultate erzielen. Heute braucht es keine Menschen, die Parolen skandieren oder Flugblätter verteilen. Programme erreichen jeden, der im Netz unterwegs ist.