Nach zähen Verhandlungen haben sich das Europaparlament und die Mitgliedsstaaten der Europäischen Union im Dezember 2023 auf Grundzüge und eine vorläufige Fassung des Artificial Intelligence Act (AI-Act) geeinigt. Die sogenannten Trilog-Verhandlungen zwischen Rat, Parlament und Kommission der Europäischen Union gelten damit als beendet.
Im aktuellen Blogbeitrag fasst Nina Fangmann, LL.M. die wesentlichen Eckpunkte der Einigung zusammen.
Künstliche Intelligenz (KI) ist mittlerweile in aller Munde. Vor rund einem Jahr ist die Technik durch die Veröffentlichung des Chatbots ChatGPT des US-Unternehmens OpenAI deutlich mehr in den Fokus der Öffentlichkeit geraten. Das Programm machte die Möglichkeiten des Einsatzes von KI einem großen Publikum bekannt.
Die Europäische Union möchte den Einsatz dieser Technologie regulieren. Hierzu hatte die EU-Kommission bereits im April 2021 einen Vorschlag für den weltweit ersten Rechtsrahmen zu KI vorgelegt. Der AI-Act verfolgt das Ziel, die zahlreichen gesellschaftlichen Chancen durch den Einsatz von KI in ein ausgewogenes Verhältnis zu den mit dieser Technik einhergehenden Risiken zu bringen.
Um die Verhältnismäßigkeit zu wahren, sieht der Entwurf keine einheitliche Regelung, sondern einen risikobasierten Ansatz vor: Je höher das Risiko, desto strenger die Vorschriften. So sollen KI-Anwendungen in vier Risikoklassen eingeteilt werden. Die vorgesehenen Vorgaben und Auflagen staffeln sich nach dem jeweiligen KI-System und dessen Gefahren. Der AI-Act unterscheidet dabei zwischen Systemen mit keinem oder minimalem Risiko, Systemen mit moderatem Risiko, Systemen mit hohem Risiko und Systemen mit zu hohem Risiko. Zu den KI-Systemen mit zu hohem Risiko, die verboten werden sollen, zählt etwa Social Scoring, also die Bewertung von Personen anhand des Sozialverhaltens zum Zweck der Verhaltensprognose. Andere Anwendungen, die mit hohen Risiken für die Gesundheit und Sicherheit oder die Grundrechte natürlicher Personen verbunden sind, sollen stark eingeschränkt werden. Für Anwendungen, die ein moderates Risiko darstellen, soll es Transparenzpflichten geben, für jene mit einem nur minimalen Risiko bestehen keine weiteren Verpflichtungen.
Zuletzt wären die Verhandlungen allerdings fast gescheitert, unter anderem an der Frage der Regulierung von sogenannten Basismodellen. Diese finden in General Purpose AI Anwendung, also in sehr leistungsfähigen KI-Systemen, die für das Ausführen verschiedener Aufgaben mit einem breiten Satz an Daten trainiert werden. Hierzu zählt auch ChatGPT. Deutschland, Frankreich und Italien hatten Bedenken, dass zu strenge Regulierungen die Innovationsfähigkeit und Wettbewerbsfähigkeit Europas gefährden könnten und wollten die Basismodelle in Teilen von den neuen strengen Regeln ausnehmen. Sie plädierten stattdessen für eine Selbstverpflichtung der Industrie. Dieser Ansatz konnte sich allerdings nicht durchsetzen. Statt einer bloßen Selbstverpflichtung sollen Basismodelle verbindlichen Regeln unterliegen. So ist vorgesehen, dass sie bestimmte Transparenzpflichten erfüllen müssen, bevor sie in Verkehr gebracht werden dürfen. Für Basismodelle mit erheblichen Auswirkungen sind strengere Regelungen vorgesehen. Hinsichtlich urheberrechtlich geschützter Inhalte sieht der Entwurf vor, dass Anbieter eine „detaillierte Zusammenfassung“ über das verwendete Trainingsmaterial erstellen müssen.
Nach der politischen Einigung müssen noch die technischen Details der Verordnung ausgearbeitet werden. Der Text muss zudem vom Europäischen Parlament und vom Rat förmlich gebilligt werden, bevor er in Kraft tritt. Eine Verabschiedung könnte noch vor der Europawahl im Juni erfolgen.
Anwendbar werden viele Regelungen allerdings erst im Jahr 2026 sein, da das Gesetz Übergangsfristen von sechs Monaten bis zu zwei Jahren vorsieht.
Die Europäische Union ist dann weltweit Vorreiter bei der Regulierung von KI.
Kontakt
Goltsteinstraße 14 | 40211 Düsseldorf
Tel: +49 2 11 5 18 82-0 | Fax: +49 2 11 5 18 82-100
E-Mail: duesseldorf@hoffmannliebs.de
Partnerschaften
Informationen
© 2024 Hoffmann Liebs Partnerschaft von Rechtsanwälten mbB
Wir benötigen Ihre Zustimmung, bevor Sie unsere Website weiter besuchen können. Wenn Sie unter 16 Jahre alt sind und Ihre Zustimmung zu freiwilligen Diensten geben möchten, müssen Sie Ihre Erziehungsberechtigten um Erlaubnis bitten. Wir verwenden Cookies und andere Technologien auf unserer Website. Einige von ihnen sind essenziell, während andere uns helfen, diese Website und Ihre Erfahrung zu verbessern. Personenbezogene Daten können verarbeitet werden (z. B. IP-Adressen), z. B. für personalisierte Anzeigen und Inhalte oder Anzeigen- und Inhaltsmessung. Weitere Informationen über die Verwendung Ihrer Daten finden Sie in unserer Datenschutzerklärung. Sie können Ihre Auswahl jederzeit unter Einstellungen widerrufen oder anpassen.
Wenn Sie unter 16 Jahre alt sind und Ihre Zustimmung zu freiwilligen Diensten geben möchten, müssen Sie Ihre Erziehungsberechtigten um Erlaubnis bitten. Wir verwenden Cookies und andere Technologien auf unserer Website. Einige von ihnen sind essenziell, während andere uns helfen, diese Website und Ihre Erfahrung zu verbessern. Personenbezogene Daten können verarbeitet werden (z. B. IP-Adressen), z. B. für personalisierte Anzeigen und Inhalte oder Anzeigen- und Inhaltsmessung. Weitere Informationen über die Verwendung Ihrer Daten finden Sie in unserer Datenschutzerklärung. Hier finden Sie eine Übersicht über alle verwendeten Cookies. Sie können Ihre Einwilligung zu ganzen Kategorien geben oder sich weitere Informationen anzeigen lassen und so nur bestimmte Cookies auswählen.