Direkt zum Hauptinhalt springen Direkt zum Hauptmenü springen

Bildwortmarke: Deutscher BundestagDeutscher Bundestag

Dokumente

Artikel

 

Transparenz-Anforde­run­gen und recht­liche Fra­gen KI-ba­sierter Systeme

herunterladen

Dialog schließen

Sehr geehrte Nutzerinnen und Nutzer, bitte bestätigen Sie vor dem Download des gewünschten Videos, dass Sie unseren Nutzungsbedingungen zustimmen. Ohne die Zustimmung ist der Download des Videoclips leider nicht möglich.

einbetten

Dialog schließen

Fügen Sie den folgenden Code in HTML-Seiten ein, um den Player auf Ihrer Webseite zu verwenden. Es gelten die Nutzungsbedingungen des Deutschen Bundestages.

<script id="tv7351636" src="https://webtv.bundestag.de/player/macros/bttv/hls/player.js?content=7351636&phi=default"></script>

Anforderungen an die Transparenz sowie rechtliche Fragen rund um haftungs-, patent- und datenschutzrechtliche Aspekte KI-basierter Systeme haben die Mitglieder der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ unter Leitung von Daniela Kolbe (SPD) am Montag, 6. Mai 2019, in zwei Fachgesprächen diskutiert. Die Impulsvorträge der insgesamt fünf Sachverständigen fanden in öffentlicher Sitzung statt, Fragerunde und Diskussion unter Ausschluss der Öffentlichkeit.

„Transparenz ist kein Selbstzweck“

Carla Hustedt (Bertelsmann-Stiftung) warb in ihrem Vortrag unter dem Titel „KI-Transparenz aus Verantwortung“ für „mehr Genauigkeit“ in der Debatte um KI-Transparenz. Die Vieldeutigkeit sei ein Problem, sagte die Leiterin des Projekts „Ethik der Algorithmen“. So müsse geklärt werden, was mit Transparenz erreicht, welche Systeme transparent gemacht und wie diese Transparenz geschaffen werden soll. Hustedt betonte, dass Transparenz kein Selbstzweck, sondern ein „wirkungsvoller Hebel“ sei, um verschiedene Ziele zu erreichen, etwa um „individuelles Vertrauen und gesellschaftliche Akzeptanz für algorithmische Entscheidungsprozesse“ zu schaffen.

Die Sachverständige sprach sich in diesem Zusammenhang für einen Teilhabe-Fokus aus: Demnach ist das entscheidende Kriterium für Transparenz-Anforderungen an ein algorithmisches System, inwiefern es Einfluss auf die „Teilhabe von Menschen an gesellschaftlich relevanten Gütern“ habe. Fragen nach der Teilhaberelevanz stellten sich daher auch bei – im Vergleich zu komplexen lernenden Systemen – einfachen Softwaresystemen. Diese hätten oft mehr Einfluss auf das Leben von Menschen als ein Großteil der aktuell im Einsatz befindlichen KI-Systeme.

„Nicht jede Black Box muss geöffnet werden“

„Nicht jede Black Box muss geöffnet werden“, sagte Hustedt mit Verweis auf das im Zusammenhang mit komplexen KI-Systemen diskutierte Problem der mangelnden Nachvollziehbarkeit der Entscheidungen dieser Systeme. Hustedt unterstrich zudem, dass mit Kennzeichnung, Nachvollziehbarkeit sowie Überprüfbarkeit unterschiedliche Arten von Transparenz nötig seien. In teilhaberelevanten Bereichen müssten die Nutzer beispielsweise wissen, womit sie es zu tun haben: „Wir brauche ein Vermummungsverbot für algorithmische Systeme.“

Als Handlungsempfehlungen schlug Hustedt der Enquete-Kommission vor, die interdisziplinäre Forschung zu KI-Transparenz zu fördern. Sie forderte zudem, erweiterte Transparenz-Anforderungen in staatliche Vergabestandards aufzunehmen, etwa indem Auftragnehmer verpflichtet werden, die Überprüfung durch Dritte sowie Schaffung von Nachvollziehbarkeit aktiv zu unterstützen. Auch sprach sich die Sachverständige für die Stärkung von Aufsichtsbehörden und zivilgesellschaftlicher Watchdog-Organisationen aus.

„Gefährdungshaftung einführen“

Im zweiten Fachgespräch stellten die Sachverständigen rechtliche Fragen sowie die Bedeutung der Normung und Standardisierung im KI-Bereich in den Vordergrund. Jan Kuhlen, sachverständiges Mitglieder Kommission, sowie der Rechtswissenschaftler Prof. Dr. Axel Metzger (Humboldt-Universität Berlin) sprachen sich jeweils dafür aus, für Hersteller von KI-Systemen ein Gefährdungshaftung einzuführen. Kuhlen warb dabei für eine sektorale Betrachtung. KI sei nicht per se als gefährlich einzustufen. In einzelnen Sektoren, etwa bei Kraftfahrzeugen oder Medizinrobotern, könne Autonomie aber besonders gefährlich sein, sagte Kuhlen.

Aktuell keinen rechtlichen Handlungsbedarf sah Metzger im Patent- und Urheberrecht. Mit Blick auf das Datenschutzrecht sagte der Rechtswissenschaftler, dass die EU-Datenschutzgrundverordnung keine „unüberwindbare Hürde“ darstelle. Der Datenschutz sei schwierig, aber nicht unmöglich. Metzger warb dafür, die Kooperation von Industrie und Datenschutzbeauftragten zu fördern.

„Normungssystem ein Erfolgsmodell“

Michael Teigeler (Deutsche Kommission Elektrotechnik, Elektronik, Informationstechnik – DKE) und Sebastian Hallensleben (Verband der Elektrotechnik, Elektronik, Informationstechnik – VDE) hoben die Bedeutung und Vorteile der Normung und Standardsetzung im KI-Bereich hervor. Teigeler verwies darauf, dass das Normungssystem ein Erfolgsmodell sei, das es fortzusetzen gelte. Deutschland habe aktuell großen Einfluss in diesem Bereich, auch wenn dieser künftig abnehmen werde. Es sei aber eine gute Ausgangslage für den KI-Bereich und könne auch ein Standortfaktor sein.

Hallensleben berichtete über aktuelle Vorhaben im Bereich der KI-Normung. So seien die Bereiche „Methoden und Fachsprache“ sowie Ethik international bereits in Arbeit. In anderen Bereichen, etwa der Normung im Bereich „Interoperabilität selbstlernender Systeme“, stünde die Arbeit noch am Anfang. (scr/06.05.2019)

Liste der geladenen Sachverständigen

  • Dr. Sebastian Hallensleben, Verband der Elektrotechnik, Elektronik und Informationstechnik e. V. (VDE)
  • Carla Hustedt, Bertelsmann Stiftung
  • Prof. Dr. Axel Metzger, Humboldt-Universität Berlin
  • Michael Teigeler, Verband der Elektrotechnik, Elektronik und Informationstechnik e. V. (VDE)

Marginalspalte