Zur Navigation springen Zum Hauptinhalt springen Zum Footer springen

AI Act

Bild mit KI generiert

AI Act

Die Europäische Union (EU) hat ein Regelwerk verabschiedet, das eine vertrauenswürdige Gestaltung und Nutzung von Künstlicher Intelligenz sicherstellen soll: den Artificial Intelligence Act (kurz AI Act). Er ist am 01. August 2024 in Kraft getreten, die Umsetzung erfolgt schrittweise bis zur vollständigen Einführung am 02. August 2027. Diese Seite bietet einen Überblick über die einzelnen Umsetzungsschritte und erläutert, nach welcher Logik und welchen Kriterien der AI Act aufgebaut ist.

Zeitstrahl

 

12. Juli 2024

Der AI Act wird im Amtsblatt der Europäischen Union veröffentlicht und damit amtlich bekannt gegeben.

 

01. August 2024

Der AI Act tritt in Kraft. Die Umsetzung soll schrittweise erfolgen, es gilt noch keine der Anforderungen.

Start aller Übergangsfristen.

 

Dezember 2024

Das AI Office legt erste Entwürfe für den Code of Practice für Anbieter allgemeiner KI-Modelle wie ChatGPT und Gemini [General Purpose AI (GPAI)] vor.

 

02. Februar 2025

Verbot von KI-Sytemen mit „unannehmbarem Risiko“ wird verbindlich (z. B. Social Scoring, nicht-einvernehmliche biometrische Identifikation usw.).
Allgemeine Bestimmungen treten in Kraft (z. B. verbindliche Definitionen von KI-Systemen und -Anbietern, Pflicht zur Sicherstellung von KI-Kompetenz durch Anbieter und Betreiber).

 

02. August 2025

Die Verpflichtungen von Anbietern von General Purpose AI (GPAI) werden verbindlich. Übergangsfrist bis August 2027 für GPAI-Modelle, die vor diesem Datum in Betrieb genommen wurden.

Eine muss eingerichtet sein.

EU-Mitgliedstaaten müssen benannt haben und nationale Gesetze – auch zu etwaigen Strafen – erlassen. In Deutschland soll die Bundesnetzagentur die zentrale Anlaufstelle werden.

 

19. November 2025

Die EU-Kommission schlägt Vereinfachungsmaßnahmen (digitale Omnibus-Verordnung über KI) vor, um eine rechtzeitige, reibungslose und verhältnismäßige Umsetzung bestimmter Bestimmungen des AI Acts zu gewährleisten.

 

02. Februar 2026

Frist für die EU-Kommission, Leitlinien für die praktische Umsetzung von Artikel 6 (Regeln zur Klassifizierung von Hochrisiko-KI) vorzulegen, einschließlich eines Plans zur Überwachung nach dem Inverkehrbringen.

 

02. August 2026

Die meisten Regeln für Hochrisiko-Systeme (Anhang III) treten in Kraft.
Die Transparenzpflichten (Artikel 50, z. B. Kennzeichnung von Deepfakes) werden verbindlich.
Maßnahmen zur Förderung von Innovationen greifen.
Die Mitgliedstaaten müssen mindestens ein funktionierendes KI-Reallabor eingerichtet haben (Regulatory Sandboxes).
Die Durchsetzung des AI Acts beginnt auf nationaler und EU-Ebene.

 

 

02. Dezember 2026

Die Transparenzpflichten (Artikel 50, z. B. Kennzeichnung von Deepfakes) werden verbindlich. Die Wasserzeichenpflicht für KI-generierte Inhalte greift ab nun.
Verbot sogenannter „Nudifier-Apps“ und von KI-Systemen, die Material über sexuellen Kindesmissbrauch erstellen oder die Intimzonen einer identifizierbaren Person oder diese bei sexuell eindeutigen Handlungen ohne deren Einwilligung darstellen.

 

02. August 2027

Regeln zur Klassifizierung von Hochrisiko-Systemen gelten nun auch für KI-Systeme, die als Sicherheitsbauteil in Produkten dienen, die bereits einer EU-Prüfung unterliegen (wie Spielzeug, Aufzüge, Medizinprodukte etc.).

 

02. Dezember 2027

Die meisten Regeln für Hochrisiko-Systeme (Anhang III) treten in Kraft.
Anhang III listet die besonders sensiblen Einsatzbereiche, in denen KI-Systeme als Hochrisiko-Systeme eingestuft werden. Erfasst sind etwa Anwendungen in Biometrie, Bildung, Arbeitswelt, kritischer Infrastruktur, bei wesentlichen Dienstleistungen, in der Strafverfolgung, Migration sowie in Justiz und Demokratie. Für solche Systeme sieht der AI Act umfassende Pflichten vor, um Sicherheit, Grundrechte und nachvollziehbare Entscheidungen zu schützen. Ein KI-System gilt als Hochrisiko, wenn es in einem dieser Bereiche für die im Anhang beschriebenen Zwecke bestimmt ist.

 

02. August 2028

Die Kommission evaluiert die Funktionsweise des AI Office.
Die Kommission bewertet die Wirksamkeit und die Auswirkungen der freiwilligen Verhaltenskodizes (Prüfung ab da im 3-Jahres-Rhythmus).
Die Kommission bewertet die Notwendigkeit von Änderungen, z. B. im Supervision- und Governance-System und in der Liste der KI-Systeme, die zusätzliche Transparenzmaßnahmen erfordern. Sie erstattet dem Europäischen Parlament und Rat Bericht.
Die Kommission legt einen Fortschrittsbericht vor über die „Ergebnisse der Standardisierung“, die das Thema der energieeffizienten Entwicklung von allgemeinen KI-Modellen behandeln. Der Bericht muss dem Europäischen Parlament und Rat vorgelegt und veröffentlicht werden.

 

 

31. Dezember 2030

KI-Anwendungen in IT-Großsystemen der EU (wie im Bereich Zoll/Schengen oder Migration), die vor dem 2. August 2027 in Verkehr gebracht worden sind, müssen ab jetzt AI Act-konform sein.

 

Die Risiko-Klassifizierung

Unabhängig von dieser Risikoklassifizierung gilt: Wer mit einem KI-System Bild-, Ton-, oder Videoinhalte erzeugt oder manipuliert (Deepfake), muss die Verwendung von KI für diese Inhalte transparent offenlegen. Ab dem 02. August 2026 können Verstöße gegen diese Kennzeichnungspflicht geahndet werden.

Um Unternehmen zu ermutigen, Sicherheits- und Transparenzstandards bereits vor den gesetzlichen Fristen zu etablieren, hat die Europäische Kommission den EU AI Pact ins Leben gerufen. Damit soll der Übergang von der freiwilligen Selbstregulierung zur gesetzlichen Pflicht moderiert werden. Weiterhin soll der EU AI Pact den Austausch zwischen Industrie und Regulierungsbehörden fördern. Anfang 2026 hatten gut 230 Unternehmen und Organisationen den EU AI Pact unterzeichnet, darunter Google, Microsoft, Amazon, Adobe, SAP und OpenAI. Die Unterzeichner verpflichten sich im Kern zu drei Maßnahmen:

  • KI-Governance Strategie: Aufbau interner Strukturen und Richtlinien zur Steuerung von KI-Systemen im Unternehmen.
  • Risiko-Mapping: Identifizierung von KI-Systemen, die in die Kategorie „hohes Risiko“ fallen könnten, um sie frühzeitig AI Act-konform gestalten zu können.
  • KI-Kompetenz: Schulung der Mitarbeitenden für einen verantwortungsvollen und kritischen Umgang mit KI-Technologien.

Sanktionen

Für Verstöße gegen den AI Act werden Sanktionen fällig. In der Verordnung sind EU-weite, verbindliche Obergrenzen festgelegt (Artikel 99 und 101). Die Mitgliedstaaten müssen die konkrete Ausgestaltung und Durchsetzung der Sanktionen regeln.

EU-weiter Bußgeldrahmen

Geldbußen

  • Verbotene KI-Praktiken: bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes (je nachdem, was höher ist)
  • Verstöße gegen sonstige Pflichten des AI Acts: bis zu 15 Mio. Euro oder 3 % des weltweiten Jahresumsatzes.
  • Falsche, unvollständige oder irreführenden Angaben: bis zu 7,5 Mio. Euro oder 1 % des weltweiten Jahresumsatzes.

GPAI-spezifische Sanktionen, gültig ab 2. August 2026:

  • Bis zu 15 Mio. Euro oder 3 % des weltweiten Jahresumsatzes. Diese Sanktionen können von der Kommission direkt verhängt werden.

In Deutschland sollen Sanktionen, die laut dem AI Act fällig werden, im Regelfall nach dem Ordnungswidrigkeitenrecht (OWiG) abgewickelt werden. Das nationale Gesetz zum AI Act wird ergänzende Regelungen für Verfahren und Zuständigkeiten enthalten.

Die Umsetzung in Deutschland

Die Frist für die Umsetzung in nationales Recht endete am 02. August 2025. In Deutschland und einigen anderen Mitgliedstaaten ist die Implementierung entgegen dem Zeitplan noch nicht abgeschlossen. Das nationale Durchführungs- und Überwachungsgesetz mit dem Titel „KI-Marktüberwachungsgesetz und Innovationsförderungsgesetz“ (KI-MIG) befindet sich noch im parlamentarischen Abstimmungsprozess.

Als zuständige Behörde ist die Bundesnetzagentur (BNetzA) vorgesehen. Sie soll eine zentrale Rolle bei der Überwachung und Durchsetzung übernehmen und damit folgende Funktionen erfüllen:

  • Marktüberwachungsbehörde für den AI Act
  • Zentraler Kontaktpunkt zur EU-Kommission, beziehungsweise zum EU AI Office
  • Beschwerde- und Meldestelle für Verstöße
  • Einrichtung eines internen Koordinations- und Kompetenzzentrums (KoKIVO), um andere Behörden zu unterstützen und Rechtsfragen auszulegen.

Die Bundesnetzagentur hat ein KI-Service-Desk eingerichtet, das Unternehmen, Behörden und Organisationen in Deutschland bei der Umsetzung des AI Acts unterstützen soll: Bundesnetzagentur - KI.

Die Umsetzung in anderen europäischen Ländern

Die folgende Übersicht zeigt beispielhaft, wie andere europäische Länder die Umsetzung des AI Acts organisieren und welche nationalen Behörden dabei eine zentrale Rolle spielen.

  • Land
  • Nationales Gesetz
  • Hauptbehörde(n)
  • Fokus
  • Deutschland
  • KI-Durchführungsgesetz (in Arbeit/finalisiert)
  • Bundesnetzagentur (BNetzA)
  • Koordination & Marktüberwachung
  • Italien
  • Nationales KI-Gesetz (aktiv seit 10/2025)
  • AgID & Cybersicherheitsagentur
  • Strenge Sanktionen & Strafrecht
  • Frankreich
  • Anpassung bestehender Gesetze
  • CNIL
  • Grundrechtsschutz & Innovationsförderung

Wichtige Akteure rund um den AI Act

Im Kontext des AI Acts übernehmen verschiedene europäische und nationale Institutionen zentrale Aufgaben bei der Umsetzung, Aufsicht und Weiterentwicklung der KI-Regulierung.

European AI Office (EU AI Office)

Das EU AI Office wurde im Februar 2024 gegründet und spielt eine zentrale Rolle bei der Umsetzung des AI Acts. Es bündelt das KI-Fachwissen und unterstützt die Leitungsgremien in den Mitgliedstaaten bei der Anwendung des AI Acts. Zudem ist es Grundlage eines einheitlichen europäischen KI-Governance-Systems und überwacht die Einhaltung und Implementierung des AI Acts.

EU Kommission

Die Europäische Kommission ist das Exekutivorgan der EU und verantwortlich für die Entwicklung, Umsetzung und Überwachung von EU-Gesetzen wie dem AI Act. Sie koordiniert die Zusammenarbeit der Mitgliedstaaten, fördert vertrauenswürdige KI und stellt die einheitliche Anwendung der KI-Regulierung sicher.

Bundesministerium für Digitales und Staatsmodernisierung

Das 2025 gegründete Bundesministerium für Digitales und Staatsmodernisierung verantwortet die digitale Transformation von Staat und Verwaltung sowie zentrale Fragen der Daten- und Digitalpolitik. Es begleitet die nationale Umsetzung europäischer Vorgaben wie des AI Acts und schafft Rahmenbedingungen für den sicheren Einsatz von KI.

Bundesnetzagentur

Die Bundesnetzagentur ist eine Regulierungsbehörde für zentrale Infrastrukturbereiche wie Telekommunikation und Energie. Im Kontext des AI Acts kann sie Aufgaben der Marktüberwachung übernehmen und zur Einhaltung regulatorischer Anforderungen sowie zum Verbraucherschutz beitragen.

Die Datenethikkommission

Schon vor dem Inkrafttreten des AI Acts hat die Europäische Kommission ethische Leitlinien für vertrauenswürdige KI vorgelegt.

Diese betonen einen menschenzentrierten Ansatz und heben hervor, dass KI nicht nur leistungsfähig, sondern auch transparent, verantwortungsvoll und im Einklang mit europäischen Werten gestaltet werden soll. Die Leitlinien haben die europäische Debatte über vertrauenswürdige KI maßgeblich geprägt und bilden einen wichtigen Bezugspunkt für die heutige Regulierung.

Weitere wichtige Gesetze und Leitlinien

Die KI- Strategie der Bundesregierung

Im November 2018 verabschiedete die Bundesregierung eine nationale Strategie Künstliche Intelligenz. Sie zielt darauf, „KI Made in Germany" zu einem internationalen Markenzeichen für moderne, sichere und gemeinwohlorientierte KI-Anwendungen auf Basis des europäischen Wertekanons zu etablieren. Bis 2025 wollte der Bund dafür etwa fünf Milliarden Euro zur Verfügung stellen. Die KI-Strategie wurde mehrmals aktualisiert, um auf Entwicklungen zu reagieren und Maßnahmen anzupassen. So gab es 2020 eine Fortschreibung der Strategie, 2024 den KI-Aktionsplan, der neue Impulse und Förderungen in ausgewählte Bereiche beinhaltet, wie den Ausbau der KI-Infrastruktur und den Zugang dazu für Start-ups und Nachwuchsforschende.

2025 veröffentlichte die Bundesregierung die Hightech Agenda Deutschland. Künstliche Intelligenz ist dabei eine von sechs Schlüsseltechnologien und spielt eine zentrale Rolle für Wettbewerbsfähigkeit und Souveränität. Als Querschnittstechnologie durchdringt KI nahezu alle Bereiche, von industrieller Produktion über Gesundheitswesen und Mobilität bis zu öffentlicher Verwaltung. Bis 2030 sollen rund 10 Prozent der deutschen Wirtschaftsleistung durch KI unterstützt oder direkt erzeugt werden. Deutschland soll zu einem führenden Standort für die Entwicklung und Anwendung von KI werden.

Der Code of Practice des AI Acts

Für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (wie große Sprachmodelle, englisch General Purpose Artificial Intelligence, kurz GPAI), sieht der AI Act einen Verhaltenscodex vor. Im Juli 2025 veröffentlichte die EU Kommission die finale Version des GPAI Code of Practice. Er soll Anbietern und Betreibern solcher KI-Modelle helfen, die Anforderungen des AI Acts zu erfüllen, insbesondere in den Bereichen Transparenz, Urheberrecht und Sicherheit. Der Code of Practice ist ein freiwilliger Verhaltenskodex.

Ethik-Leitlinien der EU-Kommission

Das Thema der potenziellen Diskriminierung beim Einsatz von Künstlicher Intelligenz wird sowohl in der KI-Strategie der Bundesregierung als auch in der von der Bundesregierung eingerichteten Datenethikkommission behandelt. Auf europäischer Ebene hat die High Level Expert Group on Artificial Intelligence der EU-Kommission die „Ethik-Leitlinien für eine vertrauenswürdige KI“ veröffentlicht.

 

Stimmen aus der PLS zum AI Act / Weiterführende Informationen

Grußwort (Kopie)

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Dr. Alexandra-Gwyn Paetz, Bundesministerium für Forschung, Technologie und Raumfahrt

Moderiertes Gespräch (Kopie)

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Abdelaziz Daroui, Aleph Alpha GmbH, und Dr. Tim Gutheit, Infineon Technologies AG

Impuls (Kopie)

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Prof. Dr. Gitta Kutyniok, Ludwig-Maximilians-Universität München

Disclaimer (Haftungsausschluss)

Die auf dieser Webseite bereitgestellten Informationen, Zeitpläne und Erläuterungen zum EU AI Act dienen ausschließlich der allgemeinen Information und Orientierung. Die Inhalte stellen keine Rechtsberatung dar und können eine individuelle juristische Prüfung oder Beratung im Einzelfall nicht ersetzen. Trotz sorgfältiger Recherche und Prüfung der Quellen wird keine Gewähr übernommen für die Richtigkeit, Vollständigkeit oder Aktualität der bereitgestellten Daten. Da sich die nationale Umsetzung und Auslegung durch die EU-Behörden noch im Prozess befinden, können sich kurzfristige Änderungen ergeben. Die Nutzung der hier abrufbaren Informationen erfolgt auf eigene Gefahr. Eine Haftung für Schäden, die aus der Nutzung oder Nichtnutzung der angebotenen Informationen entstehen, ist ausgeschlossen.

Verbindliche Auskünfte erhalten Sie von den zuständigen Aufsichtsbehörden wie dem European AI Office oder dem KI-Service-Desk der Bundesnetzagentur oder durch eine spezialisierte Rechtsberatung.