Auch ohne Hochrisiko-KI-System.
Die häufigste Reaktion, die ich höre, wenn Unternehmen auf den EU AI Act angesprochen werden: "Wir haben kein Hochrisiko-KI-System. Das betrifft uns wahrscheinlich kaum." Das ist ein teurer Denkfehler.
Der EU AI Act unterscheidet zwischen verschiedenen Risikokategorien. Tatsächlich fallen die meisten KI-Systeme, die Unternehmen heute nutzen, darunter ChatGPT, Copilot, KI-gestützte Dokumentenanalyse und Zusammenfassungstools, nicht in die Hochrisiko-Kategorie.
Soweit richtig. Aber daraus zu schließen, dass der EU AI Act kaum Relevanz hat, übersieht zwei Dinge.
Erstens: Artikel 4 des EU AI Act verpflichtet alle Unternehmen, die KI einsetzen, dazu sicherzustellen, dass ihre Mitarbeiter über ausreichende KI-Kompetenz verfügen. Nicht irgendwann. Jetzt. Und nicht nur die IT-Abteilung. Jeder, der KI im Arbeitsalltag nutzt.
Zweitens: Neben der gesetzlichen Pflicht gibt es betriebswirtschaftliche Risiken, die im Gesetzestext kaum stehen. Aber sie brennen in der Praxis.
Artikel 4 EU AI Act ist keine weiche Empfehlung. Er verpflichtet Unternehmen, bei allen Mitarbeitern, die mit KI arbeiten, ein angemessenes Kompetenzniveau sicherzustellen.
Was viele dabei übersehen: Diese Pflicht beginnt nicht in der Sachbearbeitung. Sie beginnt in der Führungsetage.
Wer als Führungskraft KI-Einsatz anordnet, budgetiert oder strategisch verantwortet, ohne selbst zu verstehen, was KI kann und was nicht, trifft Entscheidungen auf Basis von Annahmen, nicht von Wissen. Das ist kein Kompetenzproblem der Mitarbeiter. Das ist ein Führungsproblem.
KI-Kompetenz in Unternehmen funktioniert nur von oben nach unten. Nicht umgekehrt.
Das steht nicht prominent im EU AI Act. Aber es ist eines der größten betriebswirtschaftlichen Risiken im KI-Alltag.
Mitarbeiter nutzen KI-Tools. Oft praktisch, oft hilfreich, oft unkontrolliert. Verträge werden eingefügt. Kundendaten werden eingetippt. Interne Berichte werden zusammengefasst.
Ohne klare Antworten auf diese Fragen haben Unternehmen nicht ein KI-Problem. Sie haben ein Datenschutzproblem, ein Haftungsproblem und ein Kontrollproblem. Alles gleichzeitig.
Das steht nicht im EU AI Act. Aber es ist das dringlichste Argument.
Unternehmen, die KI heute strukturiert einführen, werden schneller, treffen bessere Entscheidungen und binden Mitarbeiter, die zukunftsfähig arbeiten wollen. Unternehmen, die abwarten, verlieren nicht einfach Zeit. Sie verlieren Boden.
Der Abstand zwischen Organisationen, die KI aktiv nutzen, und denen, die noch evaluieren, vergrößert sich momentan jeden Tag. Nicht dramatisch von heute auf morgen. Aber kontinuierlich und messbar.
Was heute ein Pilotprojekt ist, ist in zwölf Monaten Standard. Was heute Standard ist, ist dann Mindestanforderung.
KI-Kompetenz aufzubauen ist keine Vorsichtsmaßnahme. Es ist ein Wettbewerbsvorteil. Solange nicht alle ihn haben.
Das ist das Risiko, über das am wenigsten gesprochen wird. Und das in der Praxis am häufigsten auftritt.
KI produziert Antworten schnell. Gut formuliert. Überzeugend. Und manchmal falsch.
Wenn Mitarbeiter lernen, KI-Outputs einfach weiterzuleiten, ohne Prüfung, ohne Urteil, ohne Verantwortungsübernahme, entsteht ein strukturelles Risiko. Nicht weil die KI schlecht ist. Sondern weil die Frage, wer für das Ergebnis verantwortlich ist, niemand mehr beantwortet.
KI kann keine Verantwortung tragen. Sie kann Verantwortung nur verdecken.
Wettbewerbsfähigkeit
Wissen Sie, welche KI-Tools Ihre direkten Wettbewerber bereits einsetzen?
Haben Sie konkrete Use Cases identifiziert, wo KI Ihnen heute einen messbaren Vorteil bringen würde?
Gibt es einen Zeitplan für KI-Einführung? Oder wartet man noch auf "den richtigen Moment"?
Sind Ihre Mitarbeiter in der Lage, mit KI zu arbeiten? Oder verlieren Sie Talente an Arbeitgeber, die das ermöglichen?
Führung und Strategie
Haben Geschäftsführung und Führungskräfte ein grundlegendes Verständnis davon, was KI kann, was sie nicht kann und wo Risiken entstehen?
Gibt es eine bewusste Entscheidung, welche KI-Tools im Unternehmen genutzt werden dürfen, und welche nicht?
Ist Verantwortung für KI-Governance klar zugewiesen (wer entscheidet was)?
Datenschutz und Datensicherheit
Ist geregelt, welche Daten in welche KI-Tools eingegeben werden dürfen?
Sind die genutzten KI-Tools auf DSGVO-Konformität geprüft?
Wissen Mitarbeiter, was erlaubt ist und was nicht, und warum?
KI-Kompetenz (Artikel 4 EU AI Act)
Gibt es eine Bestandsaufnahme: Wer nutzt KI wofür?
Verstehen Mitarbeiter, wie KI-Outputs entstehen und wo Fehler wahrscheinlich sind?
Gibt es klare Vorgaben, wann KI genutzt werden darf und wann menschliches Urteil zwingend bleibt?
Werden KI-Outputs geprüft? Oder nur weitergeleitet?
Prozesse und Verantwortlichkeit
Ist dokumentiert, wo KI im Unternehmen eingesetzt wird?
Gibt es definierte Kontrollpunkte, an denen Menschen Entscheidungen verantworten?
Ist klar, wer haftet, wenn ein KI-Output fehlerhaft ist und weitergegeben wurde?
Der EU AI Act ist kein Bürokratieprojekt, das man an die Rechtsabteilung delegiert. Er ist ein Anlass, Fragen zu stellen, die viele Unternehmen ohnehin stellen sollten.
Wie nutzen wir KI wirklich? Wer entscheidet das? Wer trägt die Verantwortung?
Und, besonders wichtig: Befähigen wir unsere Mitarbeiter dazu, mit KI zu arbeiten? Oder setzen wir einfach Tools ein und hoffen, dass es gut geht?
Es geht nicht nur um Compliance. Es geht um die Fähigkeit, wettbewerbsfähig zu bleiben. Der Abstand zwischen Unternehmen, die KI strukturiert einsetzen, und denen, die abwarten, wächst jeden Tag. Wer jetzt investiert, in Kompetenz, in Governance, in klare Prozesse, baut einen Vorsprung auf, der sich nicht leicht aufholen lässt.
KI-Kompetenz ist keine Kür. Sie ist gesetzliche Pflicht, betriebswirtschaftlicher Schutz und Wettbewerbsvorteil gleichzeitig. Und sie beginnt nicht in der Sachbearbeitung. Sie beginnt mit der Führung.
Die Checkliste oben ist ein guter Anfang. Wenn Sie Unterstützung bei KI-Governance, der Umsetzung von Artikel 4 oder dem strukturierten Aufbau von KI-Kompetenz brauchen. Das ist genau die Arbeit, die ich mache.
Gespräch buchen →Praxisnahe Einblicke zu KI-Einführung, Governance und EU AI Act.