16.05.2024 Digitales — Anhörung — hib 330/2024

Nationale Aufsicht bei Künstlicher Intelligenz komplex

Berlin: (hib/LBR) Die nationale Aufsicht bei Fragen Künstlicher Intelligenz ist aufgrund der sektoralen Zuständigkeiten und der föderalen Aufteilung komplex. Wer die KI-Governance in Deutschland übernehmen soll, ist offen, bei einer Anhörung im Digitalausschuss am Mittwochnachmittag brachten einige Sachverständige die Bundesnetzagentur ins Gespräch. Neun Sachverständige äußerten sich zu den nationalen Spielräumen bei der Umsetzung des europäischen Gesetzes über Künstliche Intelligenz (AI Act).

Am 13. März 2024 hat das Europäische Parlament das Gesetz zur Regulierung Künstlicher Intelligenz angenommen. Die Verabschiedung durch den Rat erfolgt voraussichtlich am kommenden Dienstag, berichtete die Ausschussvorsitzende Tabea Rößner (Grüne). In Kraft trete der AI Act 20 Tage nach Veröffentlichung im EU-Amtsblatt. Zur Überwachung und Umsetzung der Verordnung soll jeder Mitgliedstaat eine zentrale Aufsichtsbehörde benennen.

Über das geplante KI-Büro bei der Europäischen Kommission berichtete Kilian Groß von der Generaldirektion CNECT (eingeladen auf Beschluss des Ausschusses). Die Abteilung solle rund 100 Mitarbeiter umfassen, der Aufbau habe hohe Priorität: „Bis Ende nächsten Jahres sollen alle neuen Mitarbeiter an Bord sein“, sagte Groß. Er betonte, dass es sich um eine produktbezogene Regulierung mit einem horizontalen Ansatz handele, die strikt risikobasiert sei. Nötig sei national ausreichend Fach- und Personalkompetenz. Groß wies darauf hin, dass Eile geboten sei, da bereits nach sechs Monaten die ersten Verbote kämen. Obwohl die gesetzliche Frist für die Benennung der zuständigen Behörde ein Jahr nach Inkrafttreten betrage, empfehle die Kommission, bereits jetzt Vertreter in das AI-Board zu entsenden, um gut vorbereitet zu starten, berichtete Groß.

David Roth-Isigkeit von der Deutschen Universität für Verwaltungswissenschaften Speyer (eingeladen auf Vorschlag der Vorsitzenden) verwies darauf, dass zwei organisatorisch getrennte Behörden, eine notifizierende Behörde und eine Marktüberwachungsbehörde, erforderlich seien. Diese könnten aber trotzdem „unter einem Dach“ organisiert werden, so Roth-Isigkeit. Die Verordnung setze hohe Hürden im Hinblick auf die Ausstattung und die Kompetenzen der Mitarbeiter, was für Schwierigkeiten im föderalen Kontext sorgen könnte, sagte er weiter. Die Grundmaterie der Produktsicherheit lasse bei der Einrichtung einer KI-Behörde einen weiten Spielraum zu; möglich seien Bundesbehörden ohne Beteiligung der Länder, aber auch aufgabenteilige Kooperationsformen zwischen Bund und Ländern seien möglich, solange es nicht zu einer unzulässigen Aufgabenverflechtung komme. Persönlich sehe er kaum eine Alternative zu einer Zentralisierung auf Bundesebene.

Nicole Büttner-Thiel vom Bundesverband Deutsche Startups und CEO von Merantix Momentum (eingeladen auf Vorschlag der Fraktion der FDP) betonte, dass die Ausgestaltung der nationalen Umsetzung entscheidend für die langfristige Innovationsfähigkeit der KI-Standorte Deutschland und Europa sei. Aus Sicht des Verbands bestehe wenig Bedarf für zusätzliche Gesetzgebung; unterschiedliche Auslegungen und Interpretationen der KI-Verordnung sollten möglichst vermieden werden. Notwendig sei eine rechtssichere, praxistaugliche, bürokratiearme und innovationsfreundliche Umsetzung der KI-Verordnung, sagte die Expertin. Bei der Aufsicht müsse eine sektorale Zersplitterung der Aufsichtskompetenzen vermieden werden, sagte Büttner-Thiel und plädierte für eine zentrale Anlaufstelle, die schnelle Verfahren gewährleiste. Notwendig sei zudem eine zügige Umsetzung, um Rechtsunsicherheiten zu vermeiden, etwa im Hinblick auf Konformitätspflichten bei Hochrisikoanwendungen.

Lina Ehrig vom Verbraucherzentrale Bundesverband (eingeladen auf Vorschlag der Fraktion Bündnis 90/Die Grünen) betonte, Vertrauensbildung könne nur gelingen, wenn die Aufsicht die Bedürfnisse der Verbraucher berücksichtige. Dazu gehöre, dass es ein niedrigschwelliges Beschwerdeverfahren gebe und die künftige zentrale Aufsichtsbehörde für das gesamte Verfahren zuständig sei. Das Digitale-Dienste-Gesetz (DDG) könne hier als Vorbild dienen, um „Behörden-Ping-Pong“ zu vermeiden, sagte Ehrig. Ebenfalls wie beim DDG könne ein unabhängiger KI-Beirat eingerichtet werden, der die Aufsichtsbehörden beraten und Empfehlungen veröffentlichen könne. Auf Nachfrage sagte Ehrig, es sei angesichts der zahlreichen neuen digitalpolitischen Aufgaben für die Bundesnetzagentur folgerichtig, diese ernsthaft für die Aufsicht zu bedenken.

Ehrig und Kilian Vieth-Ditlmann (AlgorithmWatch, eingeladen auf Vorschlag der Gruppe Die Linke) sprachen sich klar für Verbote des Einsatzes biometrischer Fernidentifizierungssysteme an öffentlich zugänglichen Orten wie etwa Tankstellen oder Einkaufszentren auch für private Akteure aus. Das Verbot könne etwa im Zuge eines Durchführungsgesetzes konkretisiert werden, sagte Vieth-Ditlmann. „Gesichtserkennung muss flächendeckend verboten bleiben, sodass öffentliche Räume frei und sicher bleiben“, sagte er. Der Sachverständige plädierte dafür, ein nationales KI-Transparenzregister für die öffentliche Hand aufzubauen, das die Informationen der EU-Datenbank über Hochrisiko-KI-Systeme umfassend ergänzt und verpflichtende, aussagekräftige Angaben bereitstellt.

Lajla Fetic, Senior AI Governance Expert (auf Vorschlag der Fraktion der SPD) betonte, die Behörde müsse innerhalb von zwölf Monaten benannt werden. Sie brauche ein eigenes Budget und eine langfristige Finanzierung, sagte Fetic weiter. Kurzfristig müssten bestehende Behörden um Kompetenzen erweitert werden, etwa solche, die dem soziotechnischen Charakter von KI-Systemen gerecht werden und über Wissen im Bereich des Grundrechtschutzes verfügten, so Fetic. Langfristig könne eine Bündelung bestehender Aufsichtsbehörden für den Digitalbereich ratsam sein, sagte sie.

Patrick Glauner von der Technische Hochschule Deggendorf (eingeladen auf Vorschlag der Fraktion der CDU/CSU) zeigte sich grundsätzlich skeptisch, ob es den AI Act benötige. Durch die breite und unkonkrete Definition von KI in Verbindung mit der nur vagen Abgrenzung von Hochrisiko-Anwendungen bestehe die Sorge vor Bürokratiebelastungen und Innovationshemmnissen, sagte Glauner. Für eine „innovationsfreundliche, kostenarme und praxisnahe“ Umsetzung brauche es eine zeitnahe Festlegung der Aufsicht, passende Standardisierungen und Checklisten. Er sprach sich mit Blick auf die Fehler bei der Umsetzung der Datenschutzgrundverordnung (DSGVO) gegen eine Aufsicht durch Daten- und Verbraucherschützer aus. Glauner verwies zudem auf die Gefahr einer Vielzahl zivilrechtlicher Klagen, für die Behörden und die Justiz eigene KI-Kompetenzen aufbauen müssten. Ein permanentes Monitoring des AI Acts sei essentiell, sagte er weiter.

Auch Robert Kilian, CEO und Geschäftsführer von CertifAI und im Vorstand des KI-Bundesverbands (eingeladen auf Vorschlag der Fraktion der CDU/CSU), hielt es für sinnvoll, eine existierende Bundesbehörde zu benennen, auf bestehenden Kompetenzen aufzubauen und mit einer Task Force zu flankieren, die die föderalen Strukturen berücksichtige. Sektorale Behörden sollten zuständig bleiben, wenn dies in der Verordnung angelegt sei, sagte Kilian weiter. Bei der Auswahl der Aufsichtsbehörde solle ausschlaggebend sein, wo Bereitschaft bestehe, sich auf neue Themen einzulassen, sagte er. Mit Blick auf das Personal forderte Kilian eine erhöhte Durchlässigkeit zwischen Wirtschaft, Wissenschaft und Aufsicht - dies sei gerade bei der sich schnell entwickelnden KI als Aufsichtsgegenstand von besonderer Bedeutung, so Kilian.

Auf die fehlende Rechtssicherheit für den KI-Einsatz im Arbeitskontext und die späte oder fehlende Einbeziehung von Beschäftigten verwies Oliver Suchy vom Deutschen Gewerkschaftsbund (eingeladen auf Vorschlag der Fraktion der SPD). Er plädierte für eine Konkretisierung der Öffnungsklausel, um die betriebliche Nutzung von KI-Anwendungen durch verbindliche Regeln zu erleichtern. Notwendig sei eine obligatorische KI-Folgenabschätzung vor Einführung von KI-Anwendungen und unabhängig von der Hochrisiko-Thematik, sagte Suchy weiter. Zudem müssten die Mitbestimmungsmöglichkeiten durch eine Reform des Betriebsverfassungsgesetzes erweitert werden. Ziel müsse es sein, dass „offen und gemeinsam mit den Beschäftigten über betriebliche Ziele der Nutzung von KI“ gesprochen werde.

Marginalspalte