Bildung

Wirkung von „Social Bots“ ist unter Sach­verständigen strittig

Haben sogenannteSocial Botsdas Potenzial, politische Debatten im Internet, und damit gar den Ausgang einer Bundestagswahl zu beeinflussen? Um „Social Bots“, Computerprogramme, die darauf abzielen, in den sozialen Netzwerken mit maschinell erstellten Beiträgen Diskurse zu beeinflussen, ging es am Donnerstag, 26. Januar 2017, in einem öffentlichen Fachgespräch des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung unter Leitung von Patricia Lips (CDU/CSU).

Dazu berichtete Dr. Sonja Kind, Projektleiterin bei der VDI/VDE Innovation + Technik GmbH, aus einer laufenden Studie. Vor einem halben Jahr hatte der Ausschuss das Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) beauftragt, das Phänomen der Social Bots und die gesellschaftliche und politische Relevanz des Themas zu untersuchen. Im Frühjahr soll dazu von dem beauftragten Dienstleister VDI/VDE-IT ein Bericht vorgelegt werden. Mit der ungewöhnlich hohen Zahl der fast 20 zur Sitzung geladenen Sachverständigen wolle man der Komplexität und Wichtigkeit des Themas gerecht werden und es aus möglichst vielen Perspektiven beleuchten, betonte die Ausschussvorsitzende Patricia Lips. 

Wissenschaftler brauchen mehr Daten

Sonja Kind gab gleich zu Beginn der Sitzung zu bedenken, dass es sich bei der Frage der Auswirkungen von Social Bots auf Debatten etwa beim Kurznachrichtendienst Twitter noch um ein sehr junges Forschungsfeld handele. Man stehe erst am Anfang der Untersuchungen und müsse zunächst viel mehr Daten erheben, um zu gesicherten Erkenntnissen zu gelangen. Darüber herrschte in der Expertenrunde Konsens. Es gehe darum, ein eigenes Ökosystem mit einem komplexen Wechselspiel maschineller und menschengemachter Tweets zu verstehen, so Prof. Dr. Christian Holger Georg Stöcker. Nicht nur im politischen, sondern auch im wirtschaftlichen Bereich hätten anonyme und automatische Beiträge aber das Potenzial, Schaden anzurichten, mahnte Kind. Populäre Hashtags würden mit ablenkenden oder falschen Meldungen geflutet, um die öffentliche Meinung zu beeinflussen. 

Dr. Marc Bovenschulte, ebenfalls von VDI/VDE-IT, der die Veranstaltung moderierte, ließ die große Expertenrunde im ersten Teil der Sitzung zunächst ihr Wissen und ihre Einschätzung über die Wirkung von Social Bots vortragen. Dies ergab ein fachlich umfassendes Bild des Internet-Phänomens und zeigte zudem, wie kontrovers das Thema unter IT-Spezialisten, Sicherheitsexperten und Gesellschaftswissenschaftlern behandelt wird. Ist die hohe Aufmerksamkeit gerechtfertigt? Was lässt sich aus der bislang dünnen Faktenlage schlussfolgern? Was können Social Bots überhaupt – für einen Schaden anrichten?

Algorithmische Verzerrungen

Dass Social Bots existieren sei ein Faktum, sagte Prof. Dr. Simon Hegelich, Hochschule für Politik München an der TU München. Es gebe im Internet zahlreiche manipulierte Trends und Infos sowie Likes, auch im völlig unpolitischen Bereich. Sämtliche Diskurse und alle möglichen Netzwerke seien von algorithmischen Verzerrungen betroffen. Man dürfe sich jedoch von deren massenhaftem Auftreten nicht zu falschen Schlussfolgerungen verleiten lassen.

Eine Beeinflussung der politischen Willensbildung? Solche Effekte seien kaum nachweisbar, Folgen für die Politik schwer einschätzbar. Dennoch müsse man sich mit dem Phänomen auseinandersetzen. Das massenhafte Liken von Star-Wars-Zitaten sei sicherheitspolitisch nicht so aufregend. Vorstellbar sei aber auch, dass sich Falschmeldungen wie „Amoklauf in München“ unkontrolliert verbreiteten.

Manipulationen und virtuelle Tatorte

Mit der schweren Nachweisbarkeit eines Zusammenhangs zwischen dem Einsatz von Social Bots und dem Verlauf von Debatten oder Ereignissen beschäftigten sich alle Referenten der Sitzung. Wenn der Börsenkurs eines Unternehmens plötzlich gegen Null gehe und man zuvor massenhafte profitable Verkäufe Einzelner beobachte, liege der Verdacht der Manipulation und des Insiderhandels nah, sagte Holger Kriegeskorte vom Bundeskriminalamt, das sich mit derartigen virtuellen Tatorten noch schwer tue. Er hielt fest: Es gibt technische Strukturen, die von Kriminellen genutzt werden. Dadurch entsteht ein hoher wirtschaftlicher Schaden. Auch wenn der Zusammenhang oft nicht nachweisbar sei, müsse man solchen hohen Wahrscheinlichkeiten zwischen Web-News und kriminellen Ereignissen doch nachgehen.

Dass die Manipulationsmöglichkeiten im Internet zunähmen, vertrat Prof. Dr. Dirk Helbing von der Eidgenössenschen Technischen Hochschule Zürich. Es sei unbestreitbar, dass die sozialen Medien eine verstärkende Wirkung auf Debatten haben könnten. Massenmedien seien schon immer die Basis für Propaganda. Im Internet habe man es seit langem mit personalisierter Werbung zu tun, Unternehmen investieren in solche Technologie, Suchmaschinen wie Google verdienten damit Geld. Warum sollte es nicht auch maßgeschneiderte Nachrichten geben, Artikel, die je nach persönlichem Profil unterschiedlich geschrieben sein? Die Nutzer hinterließen derart viele Datenspuren im Web, dass wir Menschen für Algorithmen immer durchschaubar geworden sind. „Wir haben tatsächlich ein Problem: Auf uns zugeschnittene Nachrichten rauben uns die gemeinsame Information“, warnte Helbing.

„Bedeutung der Bots wird überschätzt“

Prof. Dr. Markus Bernhard Strohmaier, Leibniz-Institut für Sozialwissenschaften, Universität Koblenz-Landau, verwies darauf, dass es möglich sei, dass sich Bots in Debatten einklinken und, dass es einem Bot auch gelingen könne, einen Menschen zu überzeugen. Dabei dürfe man nicht vergessen, dass sich bei den Bots um technisches Werkzeug handele, das vom Menschen gesteuert werde. Und man dürfe aus dem gehäuften Auftreten von Bots nicht einfach auf eine hohe Wirksamkeit des Phänomens schließen. „Social Bots können großes Publikum vortäuschen, Sichtbarkeit erlangen – aber auch Wirksamkeit?“ Prof. Dr. Jürgen Pfeffer von der Technischen Universität München appellierte an die Medien, verantwortungsvoll mit Phänomen Social Bots umzugehen. Dazu gehöre, nicht unreflektiert über Mechanismen zu berichten, die man noch nicht genau kenne, und etwa Bots hinter Likes und Tweets nicht allzu viel Aufmerksamkeit zu schenken. 

Dass die Bedeutung von Social Bots werde massiv überzogen werde, fand Linus Neumann vom Chaos Computer Club. Die Politik wolle damit nur von einem allgemeinen Vertrauensverlust der Bürger ablenken. Warum sollten Social Bots Wahlen beeinflussen, wenn das seit Jahrzehnten andere Medien nicht geschafft hätten. Bots könnten vorhandene Tendenzen wie Fremdenfeindlichkeit lediglich verstärken. Der Effekt von Bots auf die politische Meinungsbildung sei zudem nicht nur empirisch schwer nachweisbar, er bewege sich auch auf einem zahlenmäßig zu vernachlässigenden Niveau. Dies werde bereits deutlich, wenn man sich relativ geringe Zahl der Twitter-Nutzer in Deutschland vor Augen führe.

Neumann verwies außerdem auf den grundlegenden Algorithmus unserer Internetkultur, den die meisten Nutzer unreflektiert hinnähmen, und an den sich die Bots lediglich anlehnten. Das bestimmende Universum im Web seien die sozialen Medien wie Twitter und Facebook. Auf diesem von Unternehmen organisierten Marktplatz, der sich durch Werbung finanziere, würden „Folgen“- oder „Gefällt mir“-Klicks von ähnlichen Angeboten gefolgt – Verstärkung sei grundlegend für das System, die dahinterstehende Logik.

„Einstieg in eine Verrechtlichung“

Bei der Frage der politischen Handlungsmöglichkeiten entspann sich unter den Experten eine Kontroverse darüber, ob denn nun der Gesetzgeber tätig werden und beispielsweise eine Kennzeichnungspflicht für Social Bots einführen solle. „Ich möchte als Mensch wissen, wenn ich mit einer Maschine kommuniziere“, sagte Ausschussmitglied Tabea Rößner (Bündnis 90/Die Grünen).

Prof. Dr. Dirk Helbing plädierte ganz generell für eine Kennzeichnungspflicht. Wenn Programme, „Roboter“, eine solche Bedeutung erlangten, müssten diese ähnliche Rechte und Pflichten haben wie sie die Rechtsordnung für natürliche Personen vorsehe. Eine Kennzeichnung, eine Art persönlicher Identitätsnachweis wäre ein Einstieg in eine Verrechtlichung dieses Bereichs der Internetsphäre.

„Verdeckte Bots schwer zu erkennen“

Dem schlossen sich einige Diskussionsteilnehmer an – dagegen wurde aber auch eine Reihe von Einwänden vorgebracht. Wie soll eine Kennzeichnung überhaupt funktionieren, war eine der Fragen. Die Erkennung verdeckter Bots sei schwer, meinte Dr. Christian Grimme von der Westfälischen Wilhelms-Universität Münster. Man müsse schließlich gerichtsfest nachweisen, ob es sich um einen Bot handelt.

Dann sei auch noch die territoriale Reichweite der Gerichtsbarkeit oftmals nicht gegeben. Bei der Kontrolle der Kennzeichnung laufe man vermutlich zeitlich immer hinterher, wandte Alexander Sander von der Digitalen Gesellschaft ein. Und Prof. Dr. Dr. Dietmar Janetzko von der CBS Cologne Business School vermutete, eine Kennzeichnung und Verbote würden zu Ausweichbewegungen führen.

„Netzkompetenz der User verbessern“

Prof. Dr. Thorsten Quandt von der Westfälischen Wilhelms-Universität Münster lenkte, wie auch andere Redner, den Blick auf einen weiteren Aspekt: Das Problem sei nicht die Technik, sondern deren sozialer Einsatz. Man solle nicht an der Technologie ansetzen, sondern Bildung sei der entscheiden Punkt. „Wir müssen die Netzkompetenz der User verbessern“, so Quandt. „Wir haben bereits alle nötigen rechtlichen Mittel“, sagte Benedikt Walter und plädierte ebenfalls dafür, die Medienkompetenz und die Informationstechnische Grundbildung in der Gesellschaft stärken.

Es herrschte Konsens unter den Sachverständigen, die mediale Aufklärung bereits in der Schule zu verbessern. Man dürfe aber nicht dabei stehen bleiben, schlicht PCs, Tablets und Smartphones zu verteilen. „Es geht darum, das System Internet zu erklären und zu verstehen“, so Walter, und hielt ein Plädoyer für mehr Informatik-Unterricht an den Schulen.

„Finger weg von neuen Gesetzen“

„Finger weg von neuen Gesetzen“, mahnte auch Dr. Steffen Wenzel von politik-digital.de. Wer solle denn bei der Bekämpfung von Bots über „gut oder böse“ richten? Und Marie-Teresa Weber vom Branchenverband Bitkom verwies auf den Zielkonflikt zwischen der durch den Datenschutz gedeckten Anonymität der Nutzer und Sicherheitsaspekten, der entstehe, wenn man Internetnutzer beobachte, um schädliche Maschinennachrichten zu enttarnen.

Die Gesetzgebung könnte aber den Datenzugang für wissenschaftliche Datenerhebungen bei den sozialen Medien verbessern, forderte Prof. Dr. Markus Bernhard Strohmaier. Dann könne man die Forschung über das Phänomen und die Auswirkungen von Social Bots, bei der man noch ganz am Anfang stehe, vorantreiben.(ll/02.02.2017)

Liste der geladenen Sachverständigen

  • Dr. Stephan Arlt, Bundesamt für Sicherheit in der Informationstechnik (BSI)
  • Martin Fuchs, Hamburger Wahlbeobachter/politik-kommunikation.de
  • Dr. Christian Grimme, Westfälische Wilhelms-Universität Münster
  • Prof. Dr. Simon Hegelich, Hochschule für Politik München an der Technischen Universität München
  • Prof. Dr. Dirk Helbing, Eidgenössische Technische Hochschule (ETH) Zürich
  • Prof. Dr. Dr. Dietmar Janetzko, CBS Cologne Business School GmbH
  • Ulf-Jost Kossol, „T-Systems Multimedia Solutions GmbH Bundesverband Digitale Wirtschaft (BVDW) e.V.“
  • Holger Kriegeskorte, Bundeskriminalamt (BKA)
  • Linus Neumann, Chaos Computer Club
  • Prof. Dr. Jürgen Pfeffer, Technical University of Munich, Bavarian School of Public Policy
  • Prof. Dr. Thorsten Quandt, Westfälische Wilhelms-Universität Münster
  • Dr. Norbert Reez, Bundesakademie für Sicherheitspolitik (BAKS)
  • Stephan Sachweh geb. Werle, Pallas GmbH
  • Alexander Sander, Digitale Gesellschaft e. V.
  • Prof. Dr. Christian Holger Georg Stöcker, HAW Hamburg/ehemals SPIEGEL ONLINE
  • Prof. Dr. Markus Bernhard Strohmaier, GESIS – Leibniz-Institut für Sozialwissenschaften, Universität Koblenz - Landau
  • Benedikt Walter, Freier Journalist
  • Marie-Teresa Weber, Bitkom (Arbeitskreis Medienpolitik)
  • Peter Welchering, Freier Journalist
  • Dr. Steffen Wenzel, politik-digital.de

Marginalspalte