+++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++

+++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++ Archiv +++

11.04.2019 Ausschuss Digitale Agenda — Ausschuss — hib 407/2019

Digitale Wahlbeeinflussung

Berlin: (hib/LBR) Über den derzeitigen Stand der Resilienz von Demokratien hat der Ausschuss Digitale Agenda mit sechs geladenen Experten in einer öffentlichen Anhörung diskutiert. In der 32. Sitzung des Ausschusses erteilten die Sachverständigen Auskunft über den Zusammenhang von demokratischen Diskursen in sozialen Netzwerken, Desinformation und Medien- und Digitalkompetenz.

„Meinungsbildung und Meinungsmanipulation liegen oft eng beieinander und es wird kontrovers diskutiert, wie ein Nährboden für Manipulation entsteht“, eröffnete der Vorsitzende Hansjörg Durz (CSU) das Fachgespräch mit den Sachverständigen. Vor dem Hintergrund der in wenigen Wochen stattfindenden Europawahlen und anstehender Landtagswahlen wolle der Ausschuss mehr zu wissenschaftlichen Erkenntnissen, Handlungsempfehlungen und Vorkehrungen seitens der Politik erfahren, um digitale Wahlbeeinflussung zu verhindern, sagte Durz.

Simon Hegelich (Hochschule für Politik München) machte deutlich, dass sich der Forschungsstand sehr schnell ändere. Das Ausmaß an Desinformationskampagnen habe bei der Bundestagswahl im Jahr 2017 quantitativ höher gelegen als gedacht. Gleichzeitig werde die Wirkung aber auch überschätzt im Verhältnis zu dem, was sonst in den sozialen Medien zirkuliere. „Es sind koordinierte Kampagnen, in denen über unterschiedliche Strategien versucht wird, Verunsicherung zu schüren oder das Vertrauen in demokratische Institutionen zu unterminieren“, sagte der Wissenschaftler. Dafür müsse gezielt, über Plattformen hinweg, eine Followerschaft aufgebaut werden. Hegelich verwies auf das Problem, dass die Kampagnen weder eindeutig am Inhalt, noch an den Accounts beziehungsweise Personen oder der genutzten Infrastruktur zu erkennen seien, da gezielt andere Personengruppen miteinbezogen würden. Es sei also das Verhalten, das untersucht werden müsse. Zur Wirkung könne man sagen, dass man eine „Beeinflussung am ehesten bei kulturellen Themen sieht, etwa bei Anti-Political-Correctness, Migration und Religion“, sagte Hegelich. Für belastbare Aussagen zu einem Kausaleinfluss mangele es allerdings an Studien.

Was die Wirkungsdimension angehe, müsse zwischen psychologischen Medienwirkungen auf der Meso- und auf der Makroebene unterschieden werden, sagte Martin Emmer vom Weizenbaum-Institut für die vernetzte Gesellschaft (Deutsches Internet-Institut). Es sei nicht immer eine Meinungsmanipulation nötig. „Der Erwerb von digitalen Bürgerkompetenzen ist ein zentrales Thema und wird derzeit noch zu wenig thematisiert“, betonte Emmer. Transparenz sei das Stichwort wenn es darum gehe, erkennen zu können, was in Desinformationskampagnen passiere. „Mächtiger als Algorithmen offenzulegen, wäre eine Grundverpflichtung für Plattformen, Datenkategorien in gewissen Grenzen freizustellen für die Forschung“, sagte Emmer und forderte gleichzeitig klare Regeln für den Zugang zu diesen. Auch im Bezug auf den Journalismus müsse sichergestellt werden, dass es unabhängige Akteure gebe, entsprechende Kampagnen aufzuklären. „Die Gesellschaft wird damit leben müssen, dass es eine unfreundliche, ruppige Kommunikation in den sozialen Medien geben wird“, betonte er.

Lisa-Maria Neudert vom Oxford Internet Institute berichtete, dass das Thema Desinformation zwar im politischen Mainstream Deutschlands angekommen sei, man sich aber immer noch in der Phase der Problemdefinition befinde: „Die Quellen politischer Desinformation in Deutschland sind nicht fremde Mächte, sondern heimische Outlets, die aus politischen und wirtschaftlichen Motiven handeln“, sagte Neudert. Dazu komme, dass russische staatliche Medien mit hunderttausenden Abonnenten in Deutschland sehr stark vertreten seien. Eine zweite Gefahr stellten Social Bots als Debattentreiber dar. Forschung sei mit den zur Verfügung stehenden Daten nur schwer möglich - „auch weil nicht klar ist, was automatisiert und was nicht automatisiert stattfindet“, sagte Neudert. Sorge bereite ihr zudem auch die Abwanderung von Desinformation in Netzwerke, die privat sind, etwa Messenger-Dienste.

Sandro Gaycken, Direktor des Digital Society Institute (ESMT Berlin), betonte, dass soziale Netzwerke nachweislich von fremden Mächten für Manipulation genutzt würden. „Ein wichtiger Punkt ist, dass Desinformationskampagnen billig durchzuführen sind“, sagte Gaycken. Geschichten in Diskursen könnten über verschiedene Plattformen gut für spezifische Subkulturen gestaltet und choreographiert werden. Oftmals gehe es darum, die Legitimität demokratischer Prozesse anzugreifen und Dissens zu erzeugen. „Die Wahlen in Europa sind technisch angreifbar“, sagte Gaycken. Denkbar sei, dass Diskurse oder Themen algorithmisch bevorzugt würden oder Suchergebnisse und Diskursverläufe direkt manipuliert werden. Er plädierte dafür, etwa mit Russland außenpolitische Dialoge anzufangen: „Die Russen sehen sich in der Defensive und verstehen ihre Haltung als fair game“, sagte Gaycken. Helfen könne es auch, die Namen der Akteure der Desinformation zu publizieren, das mache es unattraktiver und politisch teurer.

„Auf der einen Seiten wird Panik verbreitet, anderseits bestehen Gefahren der Verharmlosung“, sagte Karolin Schwarz, freie Journalistin. „Irreführenden Meldungen kursieren schon seit dem Sommer 2015 und Manipulationskampagnen kommen nicht nur vor dem Urnengang vor, sondern sind oftmals auch eine langfristige Beeinflussung oder anlassbezogen“, sagte Schwarz. Eine einzelne Lösung gebe es daher nicht, sagte sie. Schwarz warnte davor, dass gesetzgeberische Initiativen auch zu einer Einschränkung der Meinungsfreiheit führen könnten. Maßnahmen wie die Offenlegung von Details zu allen digital geschalteten Anzeigen wie etwa zur Zielgruppe, seien jedoch zu begrüßen. Auch die Förderung der Medienkompetenz der Bevölkerung sei wünschenswert. Diese müsse aber über die Schule hinaus reichen. „Oftmals fehlen auch gut aufbereitete Informationen im politischen Kontext. Mehr Transparenz dient der Stärkung der digitalen Zivilgesellschaft und Zivilcourage“, sagte Schwarz.

Alexander Sängerlaub von der Stiftung Neue Verantwortung e.V. sprach von einem digitalen Strukturwandel der Öffentlichkeit was demokratische Prozesse betreffe: „Die Bürger müssen ermutigt werden, neue Kompetenzen und Skills zu lernen, zu verstehen, wo eine Quelle herkommt“, sagte Sängerlaub und plädierte gleichzeitig dafür, die Angebote der öffentlich-rechtlichen Medien stärker zu nutzen. Formate wie die stark regulierte Wahlwerbung im öffentlich-rechtlichen Bereich könnten auf das Internet durchaus lernend übertragen werden, sagte Sängerlaub. Auch er sprach sich für mehr Datenschnittstellen und die Möglichkeit für unabhängige Forschung aus. Das Desinformationsproblem werde nicht verschwinden, doch es gebe Aspekte bei dem Thema, die die Demokratie noch resilienter machen könnten, sagte er.

Marginalspalte