// Thema
EU AI Act und KI-Regulierung
Der EU AI Act ist ein zentrales Gesetz zur Regulierung von Künstlicher Intelligenz in Europa. Er verfolgt einen risikobasierten Ansatz und definiert unter anderem Hochrisiko-Systeme, Haftungsfragen und eine Kompetenzpflicht für Anwender.
Worum geht's
// Worum geht's
Der EU AI Act stellt ein zentrales Gesetz zur Regulierung von Künstlicher Intelligenz in Europa dar. Er verfolgt das Ziel, einen Rahmen für die Entwicklung und Nutzung von KI zu schaffen, der sowohl den Schutz der Bürger gewährleistet als auch die Innovationsfähigkeit Europas fördert. Die Gesetzgebung reagiert auf die rasante Entwicklung der KI-Technologie, die sich nicht als vorübergehende Modeerscheinung erweist, sondern verschiedene Lebens- und Arbeitsbereiche grundlegend verändert. Die Leistung von KI, etwa in komplexen, nicht-spezialisierten Aufgaben, übertrifft dabei zunehmend die Erwartungen von Experten, was die Notwendigkeit einer klaren Regulierung unterstreicht.
Ein Kernstück des EU AI Acts ist sein risikobasierter Ansatz, der KI-Systeme in verschiedene Kategorien einteilt – von inakzeptablen bis hin zu minimalen Risiken. Anwendungen mit inakzeptablem Risiko, wie etwa solche, die unterbewusste Manipulation oder Social Scoring ermöglichen, sind strengstens verboten. Hochrisiko-KI-Systeme, die beispielsweise in kritischen Infrastrukturen, im Gesundheitswesen oder im Personalwesen zum Einsatz kommen, sind zwar erlaubt, unterliegen jedoch extrem hohen regulatorischen Hürden und einem erheblichen administrativen Aufwand, um potenzielle Gefahren zu minimieren.
Eine weitere wichtige Bestimmung ist die ab Februar 2025 geltende Kompetenzpflicht für alle Unternehmen in Europa, die KI nutzen. Diese Pflicht, verankert in Artikel 4 des AI Acts, zielt darauf ab, die Wettbewerbsfähigkeit Europas zu sichern und Unternehmen dazu anzuhalten, die notwendige Expertise im Umgang mit KI aufzubauen. Es handelt sich dabei explizit um eine Kompetenzpflicht und nicht um eine reine Schulungs- oder Zertifikatspflicht. Unternehmen sind bereits heute für Fehler ihrer KI-Systeme haftbar, und Verstöße gegen die Kompetenzpflicht können zu erheblichen Bußgeldern von bis zu 35 Millionen Euro oder 7% des globalen Umsatzes sowie zur persönlichen Haftung von Geschäftsführern führen. Zudem wird ab August 2026 eine Kennzeichnungspflicht für Deep Fakes und KI-generierte Inhalte eingeführt, um Transparenz für die Nutzer zu gewährleisten.
// synthetisiert aus 3 Folgen


