Die Lösung ist nicht das Verbot – Verbote führen nur zu noch mehr Schatten-Aktivitäten. Die Lösung ist ein strukturierter Rahmen, der Innovation ermöglicht und Haftung minimiert.
Der AI Compliance Officer (AI-CO) als Rettungsanker
Du brauchst eine zentrale Rolle, die zwischen der IT, der Rechtsabteilung und der Geschäftsführung vermittelt. Der AI Compliance Officer ist kein Programmierer. Er ist ein Governance-Manager. Er sorgt dafür, dass die regulatorischen Anforderungen des AI Acts in den Arbeitsalltag übersetzt werden.
Wichtig für dich: Die Benennung eines AI-CO ist dein stärkstes Signal für aktive Compliance. Im Falle einer Prüfung durch die Aufsichtsbehörden dient die Etablierung dieser Rolle als direkter Entlastungsbeweis (Exkulpation). Du dokumentierst damit schwarz auf weiß, dass du deiner Überwachungspflicht als Geschäftsführer nachkommst und das Risiko nicht ignorierst.
Schritt 1: Die KI-Inventur
Du kannst nicht managen, was du nicht kennst. Starte einen Prozess zur Erfassung aller genutzten Systeme.
-
Nutze ein standardisiertes KI-Inventar (z. B. auf Excel-Basis).
-
Erfasse: Welches Tool? Wer nutzt es? Welche Daten fließen hinein? Welchem Zweck dient es?
-
Vergleiche dies mit Art. 6 des AI Acts, um die Risikoklasse zu bestimmen.
Schritt 2: Die Risiko-Klassifizierungs-Matrix
Nicht jedes Tool ist gefährlich. Ein Tool, das nur Marketing-Slogans für Turnschuhe schreibt, ist unbedenklich. Ein Bot, der über die Bonus-Zahlungen deiner Angestellten mitentscheidet, ist Hochrisiko. Erstelle eine Matrix, mit der deine Fachabteilungen selbstständig prüfen können, in welche Kategorie ihr Wunsch-Tool fällt. Das nimmt den Druck von der IT und schafft Klarheit.
Schritt 3: Die verbindliche AI Policy
Ersetze das „Vielleicht“ durch ein klares „So machen wir es“. Eine gute AI Policy sollte folgende Punkte enthalten:
-
Whitelist: Welche Tools (z. B. Enterprise-Versionen von Copilot) sind erlaubt?
-
Daten-Ampel: Was darf rein? (Grün: Öffentliche Texte; Gelb: Interna ohne Personenbezug; Rot: Kundendaten, Bilanzen).
-
Transparenzgebot: KI-generierte Ergebnisse müssen als solche gekennzeichnet werden.
-
Human-in-the-loop: Kein KI-Ergebnis darf ungeprüft an Kunden oder Behörden gehen.