Direkt zum Hauptinhalt springen Direkt zum Hauptmenü springen

Dokumente

 

Experten: Haftung von Schäden durch künstliche Intelligenz regeln

Video herunterladen

Dialog schließen

Sehr geehrte Nutzerinnen und Nutzer, bitte bestätigen Sie vor dem Download des gewünschten Videos, dass Sie unseren Nutzungsbedingungen zustimmen. Ohne die Zustimmung ist der Dowload des Videoclips leider nicht möglich.

Video einbetten

Dialog schließen

Fügen Sie den nachfolgenden Code in Ihre HTML-Seite ein, um das Video gemäß den Nutzungsbedingungen des Deutschen Bundestages auf Ihrer Webseite zu verwenden.

<script id="tv7084690" type="text/javascript" src="https://webtv.bundestag.de/player/macros/bttv/hls/player.js?content=7084690&phi=default"></script>

Experten sehen Regelungsbedarf bei der Haftung von Schäden, die durch Systeme künstlicher Intelligenz verursacht werden. Das zeigte ein öffentliches Fachgespräch des Ausschusses Digitale Agenda unter Leitung von Jens Koeppen (CDU/CSU) am Mittwoch, 22. März 2017. Die Mehrheit der Sachverständigen war der Meinung, dass die technologische Entwicklung eine Neuregelung von Haftungsfragen und Versicherungsmodellen erfordere. Als weiteres zentrales Problem benannten sie den Datenschutz. Gleichzeitig plädierten sie dafür, die Chancen künstlicher Intelligenz zu würdigen und zu fördern.

"Die strafrechtliche Frage ist viel problematischer"

Immer mehr technische Anwendungen funktionieren heute auf der Grundlage künstlicher Intelligenz, also der Umsetzung menschlicher Kognitionsfähigkeiten im Computer. Bestehende Anwendungen sind auf eine bestimmte Tätigkeit spezialisiert: autonome Maschinen, die Autos lenken sind ebenso Beispiele wie Systeme, die Schach spielen oder E-Mails beantworten können. Im der Medizin zählen auch sogenannte "intelligente Prothesen" zur Anwendung künstlicher Intelligenz.

Matthias Spielkamp von der Organisation AlgorithmWatch verdeutlichte die Haftungsfrage am Beispiel eines Verkehrsunfalls mit Todesfolge, der durch ein selbstfahrendes Auto verursacht wurde. "Bis heute ist ungeklärt, ob der Programmierer, der Modellierer, der Systemhersteller oder der Autohersteller die Verantwortung übernehmen muss", sagte er. Er sei überzeugt, dass sich für den zivilrechtlichen Bereich Lösungen finden ließen. "Die strafrechtliche Frage ist viel problematischer", betonte Spielkamp.

"Neue Pflichtversicherungen könnten notwendig werden"

Auch Enno Park vom Verein Cyborgs e.V. beschreibt Unfälle durch autonome Maschinen in seiner schriftlichen Stellungnahme als großes Problem. Bei autonomen Systemen und dem Einsatz künstlicher Intelligenz in Unternehmen und Privatleben müssten Haftungsfragen zwischen Herstellern, Anbietern und Nutzern neu aufgeteilt werden. Die Schaffung neuer Pflichtversicherungen könnte notwendig werden, heißt es in seiner schriftlichen Stellungnahme.

Zivilrechtlich sei die einzige Möglichkeit eine Globalversicherung, die beispielsweise alle Fahrzeughersteller einbinde, heißt es in der schriftlichen Stellungnahme des Mathematikers Prof. Dr. Raúl Rojas von der Freien Universität Berlin. Eine Maschine zum Rechtssubjekt zu erklären lehnte er ab, da Maschinen nicht verantwortlich sein könnten.

Regulierung "künstlicher Intelligenz" auf EU-Ebene befürwortet

Diskutiert würden Herstellerhaftung, Halterhaftung sowie Idee, die Maschinen zu Rechtspersonen zu machen, heißt es in der Stellungnahme von Prof. Dr. Frank Kirchner, Direktor des Forschungszentrums für künstliche Intelligenz (DFKI). Die Technologie würde schrittweise in unser Leben integriert. Es müsse ein rechtlicher Rahmen gefunden werden, der diesen Prozess begleitet und an technologische Entwicklungen angepasst werden könne, empfahl er.

Die Experten befürworten mehrheitlich eine Regulierung "künstlicher Intelligenz" auf europäischer Ebene. Eine europäische Agentur für Folgenabschätzung der Informationstechnologie für den gesamten IT-Bereich empfiehlt Rojas in seiner Stellungnahme. Aufgrund der vielfältigen Anwendungsgebiete müsse eine solche Agentur Kategorisierungen und differenzierte Empfehlungen vornehmen, sagte Park. Laut Spielkamp könnten auch nationale Lösungen sinnvoll sein, wenn sie an internationale Standards gekoppelt werden.

"Europa darf kein technologiefeindlicher Ort werden"

Der Unternehmer Fabian Westerheide vom Bundesverband Deutscher Startups betonte, dass eine europäische Agentur genutzt werden solle, um Strategien für die Technologieförderung zu entwickeln. "Europa darf kein technologiefeindlicher Ort werden", forderte er und verwies darauf, dass Deutschland im Bereich der künstlichen Intelligenz hinter den USA, China und Großbritannien liege.

Demgegenüber hält Kirchner die regionale Regulierung technologischer Entwicklungen nicht für zielführend. Wirkungsvoller als gesetzgeberische Maßnahmen sei die Regulierung durch eine ethisch verfasste Gesellschaft, sagte er. (ebr/23.03.2017)

  • Prof. Dr. Frank Kirchner, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI), Robotics Innovation Center
  • Fabian Westerheide, Bundesverband Deutscher Startups e. V., Koordinator Künstliche Intelligenz
  • Prof. Dr. Raúl Rojas, Freie Universität Berlin, Fachbereich für Mathematik und Informatik
  • Enno Park, Cyborgs e. V.
  • Matthias Spielkamp, AlgorithmWatch gGmbH