Zum Hauptinhalt springen

EU AI Act

Der EU AI Act ist eine Verordnung zur Regulierung Künstlicher Intelligenz (KI) in der Europäischen Union, die als europäischer Rechtsakt unmittelbar in den Mitgliedsstaaten Anwendung findet. Er trat im August 2024 in Kraft und wird nun schrittweise auf der Ebene der Mitgliedsstaaten umgesetzt. Der AI Act soll sicherstellen, dass KI-Systeme sicher, transparent und ethisch vertretbar eingesetzt werden. Unternehmen, die KI nutzen oder entwickeln, müssen sich jetzt vorbereiten, um rechtliche Anforderungen zu erfüllen und hohe Strafen zu vermeiden.

1. Was regelt der EU AI Act?

Der AI Act klassifiziert KI-Systeme in vier Risikostufen:

  • Unzulässiges Risiko: Verbotene Anwendungen (z. B. Social Scoring oder biometrische Echtzeitüberwachung)
  • Hohes Risiko: Strengen Vorgaben unterliegende Systeme (z. B. KI in der Medizin, Justiz oder Personalentscheidungen)
  • Begrenztes Risiko: Transparenzpflichtige Anwendungen (z. B. Chatbots oder KI-generierte Inhalte)
  • Minimales Risiko: Unregulierte KI-Systeme (z. B. KI-gestützte Videospiele oder Spam-Filter)

2. Auswirkungen auf Unternehmen

Unternehmen, die KI-Systeme nutzen oder anbieten, müssen sich an folgende Anforderungen halten:

2.1 Pflichten für Hochrisiko-KI

  • Transparenz: Dokumentation der Funktionsweise und Trainingsdaten
  • Risikomanagement: Analyse und Minimierung potenzieller Risiken
  • Menschliche Kontrolle: Entscheidungsprozesse müssen von Menschen überwacht werden
  • Datenqualität: KI muss auf repräsentativen und fehlerfreien Daten beruhen
  • Robustheit & Sicherheit: Schutz vor Manipulation und Fehlfunktionen

2.2 Transparenzpflichten für alle KI-Systeme

  • Kennzeichnungspflicht: Nutzer müssen wissen, wenn sie mit KI interagieren
  • Erklärbarkeit: KI-Entscheidungen müssen nachvollziehbar sein
  • Dokumentation & Meldung: Unternehmen müssen KI-Systeme registrieren und dokumentieren

3. Auswirkungen auf Mitarbeiter

  • KI im Personalwesen: Bewerbungs- und Bewertungsprozesse durch KI unterliegen strengen Regeln
  • KI-Überwachung: Algorithmen zur Mitarbeiterkontrolle dürfen nur unter strengen Auflagen genutzt werden
  • Schulungspflicht: Mitarbeiter müssen im Umgang mit KI geschult werden

4. Strafen für Verstöße

Unternehmen, die gegen den AI Act verstoßen, drohen:

  • Geldstrafen bis zu 40 Mio. Euro oder 7 % des weltweiten Jahresumsatzes
  • Zwangsmaßnahmen, wie das Abschalten nicht konformer KI-Systeme

5. Was sollten Unternehmen jetzt tun?

Schritt 1: KI-Anwendungen prüfen

  • Welche KI-Systeme nutzt das Unternehmen?
  • In welche Risikokategorie fallen diese?

Schritt 2: Compliance-Strategie entwickeln

  • Sicherstellen, dass alle KI-Anwendungen den neuen Vorschriften entsprechen

Schritt 3: Mitarbeiter schulen

  • Alle Beteiligten müssen die neuen Regeln und Anforderungen verstehen

Schritt 4: Ethik & Transparenz sicherstellen

  • KI-Modelle sollten fair, erklärbar und menschenzentriert sein

Schritt 5: Rechtliche Beratung einholen

  • Besonders bei Hochrisiko-KI kann professionelle Unterstützung helfen, Compliance sicherzustellen

Fazit

Der EU AI Act betrifft viele Unternehmen direkt und verlangt eine vorausschauende Strategie. Firmen sollten sich jetzt vorbereiten, um rechtliche Fallstricke zu vermeiden, etwaige Mitbestimmungsrechte von Betriebsräten zu überprüfen und von den Vorteilen sicherer KI zu profitieren. Die Regelungen werden schrittweise für die Adressaten verbindlich. Der erste Schritt unter dem Themenblock “KI-Kompetenz” von Mitarbeiter*innen ist bereits seit dem 2. Februar 2025 in Kraft, sodass Unternehmen durch geeignete Maßnahmen (Schulungen, Fortbildungen etc.) sicherstellen müssen, dass die mit KI-Systemen befassten Mitarbeiter*innen über hinreichende technische Kenntnisse verfügen.

Eine umfassende Rechtshilfe-Broschüre mitsamt entsprechenden Umsetzungszeitstrahl gibt es zu diesem Thema vom Paritätischen Gesamtverband: Rechtsfragen beim Einsatz von generativer KI in gemeinnützigen Organisationen - Der Paritätische - Spitzenverband der Freien Wohlfahrtspflege