1. Sie befinden sich hier:
  2. Newsroom
  3. Newsroom
  4. Bot or not? – Social Bots und Meinungsäußerung in sozialen Netzwerken

Bot or not? – Social Bots und Meinungsäußerung in sozialen Netzwerken

Madeleine Hankele-Gauß
Person liest Nachrichten in sozialem Netzwerk

Person liest Nachrichten in einem sozialen Netzwerk, teilt oder liket diese. | Sitthiphong/iStock/Getty Images Plus

Massive Aktivität von Social Bots auf Twitter rund um das Thema Corona

Falls Sie auf dem sozialen Netzwerk Twitter aktiv sind, haben Sie in den letzten Monaten dort sicherlich Posts zur Corona-Epidemie gelesen. Kam Ihnen dabei jemals in den Sinn, dass nicht alle dieser Posts aus menschlicher Feder stammen könnten? Eine Studie der Carnegie Mellon University in den USA sorgte in diesen Tagen für Aufsehen: Fast jeder zweite Twitter-Account, der seit Januar 2020 zum Absetzen von Posts zum Thema „Coronavirus“ bzw. „COVID-19“ genutzt wurde, verhält sich demnach wie ein Social Bot. Hierzu untersuchten die Forscher/-innen 200 Millionen Tweets, die ab Januar 2020 veröffentlicht wurden.

Heißt das also, diese Twitter-Accounts wurden allesamt für den Zweck eingesetzt, die öffentliche Meinung zu diesem Thema zu manipulieren? Ganz so einfach ist es nicht. Die noch relativ junge Disziplin der Bot-Forschung leidet nämlich an einer „Kinderkrankheit“: Es fehlt eine trennscharfe Definition dafür, was ein Social Bot überhaupt ist.

Neutrale vs. manipulative Bots

Einerseits fallen unter Social Bots automatisierte Accounts, die Inhalte menschlicher Nutzer/-innen in verschiedenen Gruppen, Social-Media-Plattformen oder unter bestimmte Hashtags posten. Andererseits versteht man darunter automatisierte Konten, die menschliches Verhalten nachahmen, bestimmte Meinungen verbreiten, an Diskussionen teilnehmen und dabei nicht unbedingt als Bots erkennbar sind. Zur Unterscheidung könnte man auch von neutralen und manipulativen Bots sprechen.

Zurück zur Studie: Nicht jeder zweite untersuchte Twitter-Account ist also zwingend ein manipulativer Bot. Betrachtet man die Studienergebnisse genauer, wird dort zwischen 66 Prozent menschlichen Konten, die Social Bots als Assistenten nutzen, und 34 Prozent automatisierten Konten, die menschliches Verhalten imitieren, unterschieden. Kurzum handelt es sich also bei nur 15 Prozent der untersuchten Twitter-Accounts um Social Bots im engeren Sinne.

Bot oder Mensch? – Die Tools Botometer und Bothunter

Ebenfalls schwer tut sich die Bot-Forschung mit der Frage, wie sich reale Menschen von Social Bots wissenschaftlich valide unterscheiden lassen. Die Frage „Bot or not?“ versuchte das Forscherteam der Carnegie Mellon University mit dem selbst entwickelten Tool „Bot Hunter“ zu klären, das auf künstlicher Intelligenz und Netzwerkanalysen basiert. Hierfür analysierte das Tool unter anderem die Kontoinformationen, die Anzahl der Follower, die Standorte der Tweets, wie häufig vom Konto aus getwittert wurde oder wie oft das Konto durch andere Twitter-Konten erwähnt wurde. 

Wie treffsicher das Tool Bot Hunter Social Bots erkennen kann, lässt sich aus der Studie selbst nicht ablesen. Eine kürzlich veröffentlichte Untersuchung hat die Mängel eines ähnlichen Tools namens „Botometer“ offengelegt. Obwohl der Botometer bei den eigenen Testdatensätzen zwischen Bot und Mensch unterscheiden konnte, identifizierte er in der neuen dreimonatigen Testreihe viele menschliche Kontos als Bots und umgekehrt. Als Testdaten wurden unter anderem echte Accounts von deutschen Bundestagsabgeordneten sowie Accounts der Seite Botwiki eingespeist.

Dies hängt unter anderem damit zusammen, dass Bots permanent angepasst werden, um einer möglichen Sperrung zu entgehen. Problematisch ist zudem, dass manche menschliche Accounts denen von Social Bots stark ähneln: zum Beispiel Kontos von Personen, die in hoher Frequenz posten, kommentieren und liken oder aus Datenschutz- oder Sicherheitsgründen lieber anonym bleiben wollen.

Wenige Bots reichen für Meinungsumschwung

Warum weitere Forschungsbemühungen in diesem Bereich dennoch enorm wichtig sind, zeigt eine Studie aus dem Jahr 2019 zum Einfluss von Bots auf die öffentliche Meinungsäußerung. Ein interdisziplinäres Team der Universität Duisburg-Essen (UDE) konnte in einer virtuellen Simulation zeigen: Bereits ein geringer Prozentsatz von 2 bis 2,5 Prozent Social Bots in einem sozialen Netzwerk führt dazu, dass die dort geäußerte Mehrheitsmeinung in zwei von drei Fällen zugunsten der Meinung, die von den Bots verbreitet wird, umschwingt. Simuliert man 10 Prozent Bots, tritt der Meinungsumschwung sogar in 90 bis 97 Prozent der Fälle ein.

Die Forscher/-innen erklären ihre Ergebnisse mit der Theorie der Schweigespirale der Politologin und Kommunikationswissenschaftlerin Elisabeth Noelle-Neumann. Da Individuen stets soziale Isolation fürchten, beobachten sie ständig, wie die Meinungen in ihrem sozialen Umfeld verteilt sind. Wähnen sie sich mit ihrer Meinung in der Minderheit, verlieren sie Vertrauen in die eigene Meinung und äußern diese daher weniger. Dieses bewusste Schweigen beeinflusst wiederum andere und löst eine Schweigespirale aus. Im Ergebnis kann es dazu kommen, dass eine Meinung öffentlich vorherrscht, der im Stillen viele ablehnend gegenüberstehen.

Um zu verhindern, dass der öffentliche Diskurs durch Bots derart verzerrt wird, gehören Fragen nach Transparenz, Kontrolle und Löschung von Bots dringend auf die politische und gesellschaftliche Agenda. Denn die vergangenen Präsidentschaftswahlen in den USA und Frankreich sowie die Brexit-Abstimmung in Großbritannien haben gezeigt, dass die Frage „Bot or not?“ schon heute politisch ist.
 

Unterrichtsimpuls Demokratie 3.0

Kampagne „Bitte Was?! Kontern gegen Fake und Hass“

Bots in sozialen Netzwerken

Madeleine Hankele-Gauß

E-Mail senden

Diese Seite teilen:

Weitere Informationen

Kategorien: