Der EU AI Act ist in aller Munde, doch mit der Aufmerksamkeit wachsen auch die Missverständnisse. Viele Unternehmen wiegen sich in falscher Sicherheit, basierend auf Halbwissen und veralteten Informationen. Diese Irrtümer können teuer werden – Bußgelder von bis zu 15 Millionen Euro oder 3% des weltweiten Jahresumsatzes sind eine reale Gefahr.[1]
Dieser Artikel räumt mit den sieben hartnäckigsten Mythen rund um die KI-Verordnung auf und zeigt, warum proaktives Handeln keine Option, sondern eine Notwendigkeit ist.
„Der AI Act betrifft nur große Tech-Unternehmen aus den USA."
Falsch
Der EU AI Act gilt für jedes Unternehmen, das KI-Systeme in der EU in Verkehr bringt, einsetzt oder deren Output im beruflichen Kontext nutzt – unabhängig von Größe oder Standort.[2] Ein deutsches Handwerksunternehmen, das eine KI-basierte Software zur Routenplanung einsetzt, ist genauso betroffen wie ein globaler Technologiekonzern. Das Gesetz folgt dem Marktortprinzip: Sobald der europäische Markt betroffen ist, greift die Regulierung.
„Wir haben noch Zeit, das Gesetz gilt erst ab 2027."
Gefährlich falsch
Während die vollständige Anwendung des Gesetzes gestaffelt erfolgt, sind entscheidende Teile bereits in Kraft. Die Verbote für bestimmte KI-Praktiken (z.B. Social Scoring) gelten bereits seit Ende 2024. Noch wichtiger: Die KI-Kompetenzpflicht nach Artikel 4, die Unternehmen zur Schulung ihrer Mitarbeiter verpflichtet, ist seit dem 2. Februar 2025 wirksam.[3] Wer jetzt nicht handelt, verstößt bereits gegen geltendes Recht.
„Wir nutzen nur ChatGPT, das ist kein ‚KI-System' im Sinne des Gesetzes."
Falsch
Der AI Act definiert den Begriff „KI-System" sehr weit. Er umfasst praktisch jede Software, die mithilfe von maschinellem Lernen oder anderen Techniken aus Daten lernt, um Vorhersagen, Empfehlungen oder Entscheidungen zu treffen.[4] General-Purpose AI-Modelle wie GPT-4, auf denen ChatGPT basiert, sind explizit reguliert. Unternehmen, die solche Modelle in ihre eigenen Prozesse integrieren oder ihren Mitarbeitern zur Verfügung stellen, müssen die daraus resultierenden Pflichten erfüllen.
„Unsere KI ist kein Hochrisiko-System, also sind wir nicht betroffen."
Ein Trugschluss
Zwar unterliegen Hochrisiko-KI-Systeme (z.B. in den Bereichen Personalwesen, Kreditvergabe oder kritische Infrastruktur) den strengsten Anforderungen.[5] Doch auch für KI-Systeme mit geringem oder minimalem Risiko gelten Pflichten. Dazu gehören insbesondere die Transparenzpflichten (z.B. Kennzeichnung von Chatbots oder Deepfakes) und die bereits erwähnte, übergreifende Schulungspflicht für Mitarbeiter.
| Risikostufe | Beispiele | Hauptpflichten |
|---|---|---|
| Inakzeptabel | Social Scoring, biometrische Echtzeit-Fernidentifizierung | Verboten |
| Hoch | Bewerbermanagement, Kreditscoring, medizinische Diagnostik | Risikomanagement, Daten-Governance, technische Dokumentation, menschliche Aufsicht |
| Limitiert | Chatbots, Deepfakes, KI-generierte Inhalte | Transparenzpflichten (Kennzeichnung) |
| Minimal | Spamfilter, KI in Videospielen | Keine spezifischen Pflichten, freiwillige Kodizes empfohlen |
„Die Schulungspflicht ist nur eine Empfehlung."
Falsch
Artikel 4 formuliert eine klare rechtliche Verpflichtung. Unternehmen müssen nachweisen können, dass ihre Mitarbeiter über eine grundlegende KI-Kompetenz verfügen. Ein Verstoß gegen diese Pflicht kann als mangelnde Compliance gewertet und mit Bußgeldern geahndet werden. Es handelt sich nicht um eine freiwillige Maßnahme, sondern um eine gesetzliche Anforderung an die unternehmerische Sorgfaltspflicht.
„Wir können einfach ein KI-Tool verbieten, dann sind wir auf der sicheren Seite."
Kurzsichtig und unrealistisch
Ein Verbot von KI-Tools führt in der Praxis oft zur Entstehung einer unkontrollierten „Schatten-KI". Mitarbeiter nutzen dann private Accounts und nicht freigegebene Tools, was die Risiken für Datenschutz und Informationssicherheit massiv erhöht.[6] Eine Studie von Bitkom zeigt, dass dies bereits in 40% der Unternehmen der Fall ist. Der bessere Weg ist eine klare Governance: Definieren Sie, welche Tools unter welchen Bedingungen erlaubt sind, und schulen Sie Ihr Team im sicheren Umgang damit.
„Compliance ist nur ein Kostenfaktor ohne geschäftlichen Nutzen."
Falsch
Unternehmen, die den EU AI Act als strategische Chance begreifen, profitieren mehrfach. Eine saubere KI-Governance schafft nicht nur Rechtssicherheit, sondern auch Vertrauen bei Kunden und Partnern. Gut geschulte Mitarbeiter nutzen KI-Tools effizienter und innovativer. Eine Studie des Weltwirtschaftsforums unterstreicht, dass 77% der Arbeitgeber das Up- und Reskilling im Bereich KI als entscheidenden Wettbewerbsfaktor sehen.[7] Compliance wird so vom Kostenfaktor zum Treiber für nachhaltiges Wachstum.
Fazit: Unwissenheit schützt vor Strafe nicht
Die Missverständnisse rund um den EU AI Act sind weit verbreitet, aber die Konsequenzen sind real. Warten Sie nicht, bis die erste Abmahnung oder eine behördliche Prüfung ins Haus steht. Setzen Sie sich proaktiv mit den Anforderungen auseinander und nutzen Sie die Regulierung als Kompass für eine verantwortungsvolle und erfolgreiche KI-Transformation.
Wollen Sie sicherstellen, dass Ihr Unternehmen auf dem richtigen Weg ist?
Unsere EU AI Act Schulung (Level 1) bietet Ihnen und Ihrem Team das notwendige Wissen, um den EU AI Act rechtssicher umzusetzen.
Jetzt Schulung entdeckenQuellen
- EU AI Act, Artikel 99, KI-Verordnung 2024.
- Europäische Kommission, „Das KI-Gesetz", 27. Januar 2026. digital-strategy.ec.europa.eu
- LinkedIn, „EU AI Act: Erfüllt dein Unternehmen die Schulungspflicht?", C. Hilker. linkedin.com
- EU AI Act, Artikel 3, KI-Verordnung 2024.
- Bundesnetzagentur, „Hochrisiko KI-Systeme". bundesnetzagentur.de
- Bitkom e.V., „Beschäftigte nutzen vermehrt Schatten-KI", Pressemitteilung.
- Capgemini Invent, „Ein Jahr KI-Kompetenz nach dem EU AI Act", 19. Februar 2026. capgemini.com