Aktuelle Rahmenbedingungen zur Regulierung Künstlicher Intelligenz in Europa und den USA
Keine Woche hat es gedauert bis Donald Trump nach seiner Amtseinführung bekanntgab, mindestens 500 Milliarden Dollar in die Entwicklung von Künstlicher Intelligenz (KI) zu investieren. Gleichzeitig wendet sich die neue US-Regierung von der Politik unter Präsident Biden ab. Dieser hatte 2022 ein Dekret zur Regulierung von KI erlassen, welches unter anderem Sicherheitstests für KI-Programme vorsah. Dieses Dekret wurde von Trump kassiert, sodass aktuell in den USA keine unmittelbaren staatlichen Einschränkungen bei der KI-Entwicklung mehr bestehen. Einen anderen Weg geht die EU. Sie erließ im Sommer 2024 ein umfassendes Regelwerk zur Einschränkung und Kontrolle von KI-Nutzung. Während die USA damit einen risikooffenen, innovationsgetriebenen Ansatz verfolgen, bei dem die Chancen der KI klar im Vordergrund stehen, setzt die EU auf einen stärker regulierten Ansatz zur Minimierung von Risiken und Schäden durch KI. Die unterschiedlichen Ansätze führen zur Frage nach den Hintergründen und Auswirkungen der Herangehensweisen auf die KI-Entwicklung.
Primär zum Schutz vor den mit dem Einsatz von KI einhergehenden Gefahren wurde am 13. Juni 2024 die „Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz“, kurz „AI-Act“ genannt, erlassen. Dabei handelt es sich um ein äußerst umfangreiches Werk mit 180 Erwägungsgründen, 113 Artikeln und 13 Anhängen. Gelten soll die Verordnung ab dem 2. August 2026, wobei jedoch einzelne Kapitel und Artikel bereits vorher, in mehreren Stufen, ab dem 2. Februar 2025 anzuwenden sind. Verwiesen wird unter anderem auf die Gefahr der Abhängigkeit und Verbreitung von Falschinformationen und auf die Gefahr des Einsatzes für existenzvernichtende Zwecke, zum Beispiel die Entwicklung von Chemiewaffen.
Nach dem Regelwerk muss ein KI-„Betreiber“, das heißt derjenige, der ein KI-System in eigener Verantwortung verwendet (Art. 3 Nr. 4 AI-Act), bei der Veröffentlichung eines Textes kenntlich machen, dass der Text künstlich erzeugt wurde (Art. 50 Abs. 4 AI-Act). Eine Ausnahme gilt, wenn der Text durch einen Menschen überprüft wurde und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung trägt. Bei Bild- und Tonaufnahmen sind die Regelungen insofern strenger, als es hier nicht darauf ankommt, ob diese veröffentlicht werden sollen. Arbeitgeber, die ein KI-System nutzen, sind gemäß Art. 4 AI-Act unabhängig von der Unternehmensgröße verpflichtet, sicherzustellen, dass ihre Arbeitnehmer über ein ausreichendes Maß an KI-Kompetenz verfügen, und dazu angehalten, hierzu gegebenenfalls Schulungen anzubieten. Gänzlich verboten ist der Einsatz von KI zum Beispiel gemäß Art. 5 Abs. 1 c) AI-Act für das sogenannte Social Scoring, bei dem Personen zwecks unterschiedlicher Behandlung nach ihrem Verhalten und ihrer Persönlichkeit bewertet werden.
Überwacht werden soll die Einhaltung der Vorschriften durch nationale Behörden (Art. 70 AI-Act), wofür in Deutschland derzeit die Landesdatenschutzbehörden und die Bundesnetzagentur im Gespräch sind. Auf EU-Ebene werden neue Einrichtungen geschaffen (zum Beispiel das sogenannte KI-Gremium), welche die nationalen Behörden unterstützen und ihr Fachwissen in die weitere Entwicklung der Regeln einbringen sollen. Offen ist bislang noch, welche rechtlichen Konsequenzen drohen, wenn die Regelungen nicht eingehalten werden. Die Mitgliedsstaaten sind gemäß Art. 99 Abs. 1 AI-Act dazu verpflichtet, Vorschriften für Sanktionen bis zum Inkrafttreten der Verordnung zu treffen. Dabei können Geldstrafen von bis zu 35 Mio. Euro oder sieben Prozent des Vorjahresumsatzes vorgesehen werden.
Während die USA von Regulierungen sämtlicher Art Abstand zu nehmen scheinen, wird sich in der EU die Frage stellen müssen, inwieweit eine Balance zwischen Schutz vor Missbrauch und Freiraum für Innovationen gefunden werden kann. Kritiker der europäischen Vorgehensweise sehen darin einen immensen Wettbewerbsnachteil, welcher die Abgeschlagenheit auf dem Technologiemarkt noch weiter begünstigen werde. Es bleibt abzuwarten, ob die EU dem Wettbewerbsdruck aus den USA, aber auch aus China, nachgeben oder an der starken Regulierung zugunsten der Grundrechte und ethischer Standards festhalten wird.
Dr. Jörg Klingmann studierte Jura in Heidelberg, Freiburg und Lausanne. Nach Referendariat und anschließender Promotion an der Universität Heidelberg zu einem Thema aus dem internationalen Vertragsrecht trat er 1995 in die Kanzlei Schlatter ein. Seit 1999 ist er dort Partner. Den Schwerpunkt seiner Tätigkeit bilden das Bau- und Immobilienrecht sowie das Vergaberecht. Die Klientel besteht überwiegend aus namhaften Unternehmen, Körperschaften des öffentlichen Rechts und internationalen Forschungseinrichtungen. Ausgeprägte Erfahrungen bestehen in der Gestaltung von Verträgen und der rechtlichen Beratung für große Bauprojekte.
Haben Sie Fragen?
Rechtsanwalt Dr. Jörg Klingmann hilft gerne weiter:
Erhalten Sie Einblicke in Best Practices, interessante Kunden und Projekte sowie branchenübergreifende Zukunftstrends.
Unteranderem: Hartmut Jenner, Vorsitzender des Vorstands der Alfred Kärcher SE & Co. KG, im Interview.
Erhalten Sie Einblicke in Best Practices, interessante Kunden und Projekte sowie branchenübergreifende Zukunftstrends.
Unteranderem: Hartmut Jenner, Vorsitzender des Vorstands der Alfred Kärcher SE & Co. KG, im Interview.