EU AI Act — Der vollständige Leitfaden für Unternehmen
Die Verordnung (EU) 2024/1689 ist seit August 2024 in Kraft: das weltweit erste umfassende KI-Gesetz. Was bedeutet das konkret für Ihr Unternehmen? Welche Pflichten gelten wann? Und wie werden Bußgelder bis 35 Millionen Euro vermieden?
Was ist der EU AI Act?
Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Regelwerk für Künstliche Intelligenz. Er wurde am 1. August 2024 im EU-Amtsblatt veröffentlicht und trat am selben Tag in Kraft. Der AI Act gilt für alle Unternehmen, die KI-Systeme in der EU entwickeln, vertreiben oder einsetzen, unabhängig davon, wo das Unternehmen seinen Sitz hat.
Der Ansatz ist risikobasiert: Je höher das Risiko eines KI-Systems für Grundrechte und Sicherheit, desto strenger die Anforderungen. Das Spektrum reicht von vollständigen Verboten bis zu Systemen ohne besondere Auflagen.
Die vier Risikoklassen
Verboten. Keine Ausnahmen für Unternehmen.
Konformitätsbewertung, Risikomanagement, Dokumentation, menschliche Aufsicht, Registrierung in EU-Datenbank.
Offenlegung gegenüber Nutzern, dass sie mit einer KI interagieren.
Keine gesetzlichen Pflichten. Freiwillige Verhaltenskodizes empfohlen.
Fristen & Zeitplan
EU AI Act in Kraft getreten (VO 2024/1689)
Verbote für inakzeptables Risiko gelten (Kapitel I & II)
Verhaltenskodizes für GPAI-Modelle werden angewendet
Hauptteil gilt: Hochrisiko-KI, Transparenzpflichten, Behörden eingerichtet
Vollständiger Rollout, auch für bestehende Hochrisiko-Systeme
Bußgelder & Sanktionen
Verstoß gegen verbotene KI-Praktiken (Artikel 5)
Verstöße gegen Anforderungen für Hochrisiko-KI
Falsche Informationen gegenüber Behörden
* Alternativ: % des weltweiten Jahresumsatzes, je nachdem welcher Betrag höher ist.
Häufig gestellte Fragen
Der EU AI Act (Verordnung 2024/1689) ist das weltweit erste umfassende KI-Regelwerk. Er klassifiziert KI-Systeme nach Risikostufen und definiert Pflichten für Unternehmen, die KI entwickeln oder einsetzen. Er gilt EU-weit und damit auch für alle deutschen Unternehmen.
Alle Unternehmen, die KI-Systeme in der EU entwickeln, vertreiben oder einsetzen, unabhängig von ihrer Größe oder ihrem Sitz. Auch Nicht-EU-Unternehmen sind betroffen, wenn ihre KI-Systeme in der EU genutzt werden.
Der AI Act definiert KI-Systeme als maschinenbasierte Systeme, die auf Basis von Eingaben Vorhersagen, Empfehlungen, Entscheidungen oder Inhalte erzeugen und damit physische oder virtuelle Umgebungen beeinflussen können. Das umfasst LLMs wie ChatGPT, Bilderkennungssysteme, Empfehlungsalgorithmen und mehr.
Für die meisten Einsatzzwecke (Texterstellung, Zusammenfassung, Recherche) fallen ChatGPT und Copilot in die Kategorie minimales Risiko und es gelten keine speziellen Pflichten. Werden sie jedoch in hochriskanten Kontexten eingesetzt (z.B. HR-Entscheidungen, Kreditbewertung), gelten die Hochrisiko-Anforderungen.
Schritt 1: Inventar aller eingesetzten KI-Systeme erstellen. Schritt 2: Risikoklasse jedes Systems bestimmen. Schritt 3: Für Hochrisiko-Systeme: Konformitätsbewertung, Risikomanagement und Dokumentationspflichten aufsetzen. Schritt 4: Mitarbeiter schulen, die mit KI arbeiten. Schritt 5: KI-Governance-Richtlinie erstellen.
GPAI-Modelle sind leistungsstarke KI-Grundlagenmodelle wie GPT-4, Claude oder Gemini. Ab einer Trainingsrechenleistung von 10²⁵ FLOP gelten sie als systemisch relevant und unterliegen zusätzlichen Transparenz- und Sicherheitspflichten.
Bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes bei Verstößen gegen verbotene KI-Praktiken. Bis zu 15 Millionen Euro oder 3% des Umsatzes bei Verletzung der Hochrisiko-Anforderungen.
Der AI Act ergänzt die DSGVO, ersetzt sie aber nicht. Beide Regelwerke gelten parallel. Die DSGVO regelt den Datenschutz, der AI Act regelt die KI-Sicherheit und -Transparenz. Bei KI-Systemen, die personenbezogene Daten verarbeiten, müssen beide Regelwerke eingehalten werden.
Wir prüfen, ob Ihre KI-Systeme konform sind und erstellen einen konkreten Maßnahmenplan.
Jetzt anfragen →