Home » EU-Kommission streicht KI-Haftungsrichtlinie aus dem Arbeitsprogramm 2025

EU-Kommission streicht KI-Haftungsrichtlinie aus dem Arbeitsprogramm 2025

by Günther Schneider
0 comments

Die Europäische Kommission hat die KI-Haftungsrichtlinie aus ihrem Arbeitsprogramm 2025 entfernt, da die Verhandlungen ins Stocken geraten sind.

Trotz dieser Entscheidung stimmten die Mitglieder des Ausschusses für Binnenmarkt und Verbraucherschutz (IMCO) des Europäischen Parlaments am Dienstag dafür, weiter an Haftungsregelungen für künstliche Intelligenz zu arbeiten. Obwohl die Kommission geplant hatte, den Vorschlag zurückzuziehen, drängen die IMCO-Mitglieder darauf, das Thema auf der politischen Agenda zu halten.

Ein Sprecher des Parlaments bestätigte, dass die Koordinatoren der Fraktionen gemeinsam daran arbeiten, die Richtlinie nicht aus den Verhandlungen verschwinden zu lassen. Der Rechtsausschuss (JURI), der die parlamentarische Arbeit zu diesem Thema leitet, hat jedoch noch keine Entscheidung über das weitere Vorgehen getroffen.

Kommission signalisiert Spielraum für neue Verhandlungen

In ihrem Arbeitsprogramm für 2025 erklärte die Europäische Kommission, dass sie die KI-Haftungsrichtlinie streichen werde, da keine Einigung in Sicht sei. Gleichzeitig deutete sie an, dass der Vorschlag erhalten bleiben könnte, wenn das Parlament und der EU-Rat bereit sind, weiter daran zu arbeiten.

Obwohl die Kommission ihre Absicht bekundet hat, die Richtlinie zu verwerfen, liegt bislang keine offizielle Rücknahme vor.

Die KI-Haftungsrichtlinie wurde 2022 gemeinsam mit dem KI-Gesetz vorgeschlagen, das künstliche Intelligenz je nach Risiko für die Gesellschaft regulieren soll. Das Gesetz zielt darauf ab, bestehende Vorschriften zu modernisieren und einheitliche Verbraucherschutzstandards in der EU zu schaffen.

Gesetzgeber uneins über Zukunft der Richtlinie

Die Meinungen der Europaabgeordneten über den Rückzug der Richtlinie gehen auseinander.

Axel Voss, der deutsche Abgeordnete, der für die parlamentarische Umsetzung der KI-Haftungsrichtlinie verantwortlich ist, kritisierte die Entscheidung der Kommission als „strategischen Fehler“. Im Gegensatz dazu unterstützte sein Parteikollege Andreas Schwab von der Europäischen Volkspartei die Entscheidung, die Richtlinie vorerst nicht weiterzuverfolgen.

Schwab argumentierte, dass die Abgeordneten zunächst beobachten sollten, wie sich das KI-Gesetz in der Praxis auswirkt. „Die Gesetzgebung muss erst einmal wasserdicht sein“, erklärte er. „Wir sollten uns jetzt auf das KI-Gesetz konzentrieren und in zwei Jahren prüfen, ob zusätzliche Haftungsregeln notwendig sind.“

Abgeordnete der Mitte-Links-Fraktion zeigten sich hingegen enttäuscht über den Schritt. Marc Angel, luxemburgischer Abgeordneter, sprach im Namen des italienischen EU-Parlamentariers Brando Benifei, Mitberichterstatter des KI-Gesetzes, und nannte die Entscheidung der Kommission „enttäuschend“.

„Harmonisierte Regeln hätten gleiche Wettbewerbsbedingungen geschaffen und Verbrauchern mehr Sicherheit gegeben, wenn KI-Systeme Schaden verursachen“, argumentierte Benifei.

Kim van Sparrentak, niederländische Abgeordnete der Grünen, kritisierte den Rückzug als „Zeichen mangelnden Verständnisses“ für die Notwendigkeit der Richtlinie. „Sie ist nicht dazu gedacht, Unternehmen zu gängeln, sondern schützt kleine und mittlere Unternehmen sowie Einzelpersonen“, sagte sie.

Reaktionen aus Industrie und Verbraucherschutzorganisationen

Unternehmen der Technologiebranche und Verbraucherschutzverbände haben unterschiedliche Ansichten über die Notwendigkeit zusätzlicher Haftungsregelungen für KI.

Vertreter der Tech-Industrie argumentieren, dass Haftungsfragen bereits durch die überarbeitete Produkthaftungsrichtlinie (PLD) abgedeckt seien. Verbraucherorganisationen hingegen unterstützen die geplante KI-Haftungsrichtlinie und sehen darin einen wichtigen zusätzlichen Schutzmechanismus.

Eine Studie des Forschungsdienstes des Europäischen Parlaments, die im Januar im Rechtsausschuss (JURI) vorgestellt wurde, warnte vor möglichen Lücken in der PLD. Insbesondere große Sprachmodelle wie ChatGPT und Claude.ai könnten demnach nicht vollständig unter die bestehenden Haftungsregelungen fallen, was zu Rechtsunsicherheiten führen könnte.

You may also like

Feature Posts

Recent Post

Newsletter