Direkt zum Hauptinhalt springen Direkt zum Hauptmenü springen

Bildwortmarke: Deutscher BundestagDeutscher Bundestag

Dokumente

Artikel

 

Meinungsbildung und Mei­nungs­ma­nipula­tion liegen oft eng bei­einander

herunterladen

Dialog schließen

Sehr geehrte Nutzerinnen und Nutzer, bitte bestätigen Sie vor dem Download des gewünschten Videos, dass Sie unseren Nutzungsbedingungen zustimmen. Ohne die Zustimmung ist der Dowload des Videoclips leider nicht möglich.

einbetten

Dialog schließen

Fügen Sie den folgenden Code in HTML-Seiten ein, um den Player auf Ihrer Webseite zu verwenden. Es gelten die Nutzungsbedingungen des Deutschen Bundestages.

<script id="tv7340562" src="https://webtv.bundestag.de/player/macros/bttv/hls/player.js?content=7340562&phi=default"></script>

Über den derzeitigen Stand der Resilienz von Demokratien im Kontext der im Mai anstehenden Europawahlen hat der Ausschuss Digitale Agenda mit sechs geladenen Experten in einem öffentlichen Fachgespräch am Mittwoch, 10. April 2019, diskutiert. In der 32. Sitzung des Ausschusses erteilten die Sachverständigen Auskunft über den Zusammenhang von demokratischen Diskursen in sozialen Netzwerken, Desinformation und Medien- und Digitalkompetenz.

„Meinungsbildung und Meinungsmanipulation liegen oft eng beieinander, und es wird kontrovers diskutiert, wie ein Nährboden für Manipulation entsteht“, eröffnete der Vorsitzende Hansjörg Durz (CDU/CSU) das Fachgespräch mit den Sachverständigen. Vor dem Hintergrund der in wenigen Wochen stattfindenden Europawahl und anstehender Landtagswahlen wolle der Ausschuss mehr zu wissenschaftlichen Erkenntnissen, Handlungsempfehlungen und Vorkehrungen seitens der Politik erfahren, um digitale Wahlbeeinflussung zu verhindern, sagte Durz.

„Beeinflussung am ehesten bei kulturellen Themen“

Dr. Simon Hegelich (Hochschule für Politik München) machte deutlich, dass sich der Forschungsstand sehr schnell ändere. Das Ausmaß an Desinformationskampagnen habe bei der Bundestagswahl im Jahr 2017 quantitativ höher gelegen als gedacht. Gleichzeitig werde die Wirkung aber auch überschätzt im Verhältnis zu dem, was sonst in den sozialen Medien zirkuliere. „Es sind koordinierte Kampagnen, in denen über unterschiedliche Strategien versucht wird, Verunsicherung zu schüren oder das Vertrauen in demokratische Institutionen zu unterminieren“, sagte der Wissenschaftler. Dafür müsse gezielt über Plattformen hinweg eine Followerschaft aufgebaut werden.

Hegelich verwies auf das Problem, dass die Kampagnen weder eindeutig am Inhalt noch an den Accounts, Personen oder der genutzten Infrastruktur zu erkennen seien, da gezielt andere Personengruppen miteinbezogen würden. Es sei also das Verhalten, das untersucht werden müsse. Wenn etwas zur Wirkung gesagt werden könne, dann dass man eine „Beeinflussung am ehesten bei kulturellen Themen sieht, etwa bei Anti-Political-Correctness, Migration und Religion“. Für belastbare Aussagen zu einem Kausaleinfluss mangele es allerdings an Studien, verdeutlichte Hegelich dem Ausschuss.

„Erwerb digitaler Bürgerkompetenzen zentrales Thema“

Was die Wirkungsdimension angehe, müsse zwischen psychologischen Medienwirkungen auf der Meso- und auf der Makroebene unterschieden werden, sagte Prof. Dr. Martin Emmer vom Weizenbaum-Institut für die vernetzte Gesellschaft (Deutsches Internet-Institut). Es sei nicht immer eine Meinungsmanipulation nötig. „Der Erwerb von digitalen Bürgerkompetenzen ist ein zentrales Thema und wird derzeit noch zu wenig thematisiert“, verdeutlichte Emmer. Transparenz sei das Stichwort wenn es darum gehe, erkennen zu können, was in Desinformationskampagnen passiere.

„Mächtiger als Algorithmen offenzulegen wäre eine Grundverpflichtung für Plattformen, Datenkategorien in gewissen Grenzen freizustellen für Forschung“, plädierte Emmer und forderte gleichzeitig klare Regeln für den Zugang zu diesen. Mit Bezug auf den Journalismus müsse sichergestellt werden, dass es unabhängige Akteure gebe, entsprechende Kampagnen aufzuklären. „Die Gesellschaft wird damit leben müssen, dass es eine unfreundliche, ruppige Kommunikation in den sozialen Medien geben wird“, betonte er.

Social Bots als Debattentreiber

Lisa-Maria Neudert vom Oxford Internet Institute berichtete, dass das Thema Desinformation zwar im politischen Mainstream Deutschlands angekommen sei, man sich aber immer noch in der Phase der Problemdefinition befinde: „Die Quellen politischer Desinformation in Deutschland sind nicht fremde Mächte, sondern heimische Outlets, die aus politischen und wirtschaftlichen Motiven handeln“, sagte Neudert. Dazu komme, dass russische staatliche Medien mit Hunderttausenden Abonnenten in Deutschland sehr stark vertreten seien.

Eine zweite Gefahr stellten Social Bots als Debattentreiber dar. Forschung sei mit den zur Verfügung stehenden Daten nur schwer möglich – „auch weil nicht klar ist, was automatisiert und was nicht automatisiert stattfindet“, sagte Neudert. Sorge bereite ihr zudem auch die Abwanderung von Desinformation in Netzwerke, die privat sind, etwa Messenger-Dienste.

„Die Wahlen in Europa sind technisch angreifbar“

Dr. Sandro Gaycken, Direktor des Digital Society Institute (ESMT Berlin), betonte, dass soziale Netzwerke nachweislich von fremden Mächten für Manipulation genutzt würden. „Ein wichtiger Punkt ist, dass Desinformationskampagnen billig durchzuführen sind“, sagte Gaycken. Geschichten in Diskursen könnten über verschiedene Plattformen gut für spezifische Subkulturen  gestaltet und choreografiert werden. Oftmals gehe es darum, die Legitimität demokratischer Prozesse anzugreifen und Dissens zu erzeugen.

„Die Wahlen in Europa sind technisch angreifbar“, sagte Gaycken. Denkbar sei, dass Diskurse oder Themen algorithmisch bevorzugt würden oder Suchergebnisse und Diskursverläufe direkt manipuliert werden. Er plädierte dafür, etwa mit Russland außenpolitische Dialoge anzufangen: „Die Russen sehen sich in der Defensive und verstehen ihre Haltung als fair game“, sagte Gaycken. Helfen könne es auch, die Namen der Akteure der Desinformation zu publizieren, das mache es unattraktiver und politisch teurer.

„Einerseits Panik, andererseits Verharmlosung“

„Auf der einen Seiten wird Panik verbreitet, anderseits bestehen Gefahren der Verharmlosung“, sagte Karolin Schwarz, freie Journalistin und Fact-Checkerin. „Irreführenden Meldungen kursieren schon seit dem Sommer 2015, und Manipulationskampagnen kommen nicht nur vor dem Urnengang vor, sondern sind oftmals auch eine langfristige Beeinflussung oder anlassbezogen“, sagte Schwarz. Eine einzelne Lösung gebe es daher nicht, sagte sie.

Schwarz warnte davor, dass gesetzgeberische Initiativen auch zu einer Einschränkung der Meinungsfreiheit führen könnten. Maßnahmen wie die Offenlegung von Details zu allen digital geschalteten Anzeigen wie etwa zur Zielgruppe begrüße sie jedoch. Auch die Förderung der Medienkompetenz der Bevölkerung sei wünschenswert. Diese müsse aber über die Schule hinausreichen. „Oftmals fehlen auch gut aufbereitete Informationen im politischen Kontext. Mehr Transparenz dient der Stärkung der digitalen Zivilgesellschaft und Zivilcourage“, sagte Schwarz.

„Digitaler Strukturwandel der Öffentlichkeit“

Alexander Sängerlaub von der Stiftung Neue Verantwortung e. V. sprach von einem digitalen Strukturwandel der Öffentlichkeit, was demokratische Prozesse betreffe: „Die Bürger müssen ermutigt werden, neue Kompetenzen und Skills zu lernen. Zu verstehen, wo eine Quelle herkommt“, sagte Sängerlaub und plädierte gleichzeitig dafür, die Angebote der öffentlich-rechtlichen Medien stärker zu nutzen.

Formate wie die stark regulierte Wahlwerbung im öffentlich-rechtlichen Bereich könnten auf das Internet durchaus lernend übertragen werden, sagte Sängerlaub. Auch er sprach sich für mehr Datenschnittstellen und die Möglichkeit für unabhängige Forschung aus. Das Desinformationsproblem werde nicht verschwinden, doch es gebe Aspekte bei dem Thema, die die Demokratie noch resilienter machen könnten, sagte Sängerlaub weiter.

Was die Abgeordneten wissen wollten

In ihren Fragen widmeten sich die Abgeordneten vor allem möglichen Mitteln und Maßnahmen im Bereich der Wahlbeeinflussung und Desinformation. Ein Abgeordneter der CDU/CSU-Fraktion wollte erfahren, wie der Zugang zu Daten von Plattformen konkret aussehen und legislativ verankert werden müsse. Ein Abgeordneter der SPD-Fraktion interessierte sich dafür, wie in anderen Ländern mit dem Thema umgegangen werde und fragte auch nach der Rolle russischer Staatsmedien.

Eine Vertreterin der AfD-Fraktion fragte nach Social Bots und weiteren Kontrollmechanismen. Ob gewisse Gruppen im Netz anfälliger für Desinformation seien als andere, wollte ein Vertreter der FDP-Fraktion erfahren. Eine Vertreterin der Linken wollte wissen, welche Verantwortung bei den Akteuren und den Plattformen liege und was bereits umgesetzt werde. Eine Vertreterin der Grünen fragte, wie die föderal zerfaserte Medienpolitik auf stärkere Beine gestellt werden könne. Ein fraktionsloser Abgeordneter wollte von den Sachverständigen erfahren, ob Desinformation vor allem ein Phänomen im „rechten Spektrum“ sei. (lbr/10.04.2019)

Liste der geladenen Sachverständigen

  • Prof. Dr. Simon Hegelich, Hochschule für Politik München
  • Prof. Dr. Martin Emmer, Weizenbaum-Institut für die vernetzte Gesellschaft (Deutsches Internet-Institut)
  • Lisa-Maria Neudert, Oxford Internet Institute
  • Dr. Sandro Gaycken, Direktor des Digital Society Institute, ESMT Berlin
  • Karolin Schwarz, freie Journalistin
  • Alexander Sängerlaub, Stiftung Neue Verantwortung e.V.

Marginalspalte