GOVERNANCE · AI ACT · DSGVO garten.ai / Dokumentation

KI unter Kontrolle.
Nicht auf dem Papier.

Governance ist kein Dokument, das einmal abgelegt wird. Sie entsteht aus Entscheidungen, die verhindern, dass ein System im Alltag entgleitet. Dieser Leitfaden zeigt, wie das bei KI konkret aussieht: mit Rollen, Freigaben, Nachweisen und Betrieb.

Lesezeit
ca. 12 Minuten
Relevant für
Compliance, IT-Leitung, Geschäftsführung
Bezug
EU AI Act, DSGVO, BSI IT-Grundschutz

Die häufigste Governance-Reihenfolge in KI-Projekten sieht ungefähr so aus: Erst bauen. Dann produktiv gehen. Dann fragt der Wirtschaftsprüfer nach. Dann anfangen zu dokumentieren. Zu spät.

Governance, die später ergänzt wird, ist teuer und oft lückenhaft. Governance, die von Anfang an mitgeplant wird, ist im Betrieb kaum sichtbar, weil sie in Architektur und Abläufe eingebaut ist. Das ist keine Stilfrage, sondern wirtschaftlich relevant: Compliance nachzurüsten kostet in der Regel mehr als sie früh mitzudenken.

Für den regulierten Mittelstand in Gesundheitswesen, Finanz, öffentlichem Sektor oder Energie kommt dazu: „Später fertig werden“ ist oft keine Option. Ein Audit kann das gesamte System stilllegen. Eine Datenschutzbeschwerde kann ein Projekt beenden.

Wir denken Governance in vier Schichten: von der konkreten Architektur bis zur strategischen Verantwortung. Jede Schicht hat eigene Werkzeuge und eigene Fallstricke.

01
Schicht 1: Architektur & Daten
Wo liegen die Daten? Wer hat Zugriff? Welche Daten gehen an welches Modell? Welche Löschfristen gelten? Darauf baut jede weitere Governance auf. Wer hier unsauber arbeitet, kann später keine saubere Prüfbarkeit herstellen. Konkret heißt das: Datenresidenz, Verschlüsselung, Prüfprotokolle aller Modellaufrufe und klare Trennung zwischen Trainings- und Nutzungsdaten.
02
Schicht 2: Prozess & Freigabe
Wer darf welche KI-Systeme einführen? Wer prüft Risiken, bevor ein System live geht? Wie läuft eine Änderung an Anweisung oder Modell durch die Freigabe? Wer wird bei einer Störung alarmiert? Hier entstehen die Abläufe, die Governance im Alltag nutzbar machen.
03
Schicht 3: Dokumentation & Audit-Trail
Jede Entscheidung eines KI-Systems mit Wirkung muss nachvollziehbar sein. Mindestens: welche Eingabe, welches Modell, welche Version, welche Antwort und wer freigegeben hat. Das ist der Unterschied zwischen „wir meinen, es war in Ordnung“ und „wir können es belegen“.
04
Schicht 4: Verantwortung & Rollen
Wer ist intern verantwortlich für ein KI-System, fachlich, technisch und organisatorisch? Wer entscheidet, ob ein neues Modell eingesetzt wird? Wer spricht mit der Aufsichtsbehörde? Ohne klare Rollen läuft Governance irgendwann leer, weil sich niemand zuständig fühlt.

Der EU AI Act ist seit August 2024 in Kraft, die meisten Pflichten gelten schrittweise bis 2026. In der Praxis relevant für den Mittelstand sind vor allem drei Dinge:

Einstufung der Systeme

Der AI Act klassifiziert Systeme in Risikoklassen. Die meisten typischen Anwendungsfälle im Mittelstand, etwa interne Suche, Dokumentenextraktion oder Support-Assistenz, fallen häufig in die unteren Risikokategorien und erfordern vor allem Transparenz und Dokumentation. Systeme, die in HR-Entscheidungen, Kreditvergabe oder kritischer Infrastruktur eingesetzt werden, fallen in die Hochrisiko-Kategorie mit deutlich höheren Pflichten.

Pflichten für Betreiber

Wer ein KI-System im Unternehmen einsetzt, hat Pflichten, auch wenn es extern gebaut wurde: Risikoprüfung vor Einführung, Überwachung im Betrieb, menschliche Aufsicht an kritischen Punkten, Protokollierung von Entscheidungen und Schulung der Nutzer. Das betrifft nicht nur KI-Abteilungen, sondern jede Fachabteilung, die ChatGPT oder Copilot nutzt.

Was sofort zu tun ist

Drei Dinge, die jede Organisation unabhängig von ihrer KI-Reife heute machen sollte: Bestandsaufnahme aller KI-Werkzeuge, die bereits im Einsatz sind (Shadow-AI inklusive). Eine Mindestregel, die festlegt, welche Daten überhaupt mit externen KI-Diensten geteilt werden dürfen. Ein benanntes Rollenverständnis: Wer ist im Haus für KI-Fragen ansprechbar? Alles Weitere lässt sich darauf aufbauen.

Die DSGVO ist älter als der aktuelle KI-Hype, aber sie gilt trotzdem. In der Praxis werden dabei drei Punkte regelmäßig unterschätzt:

„Der Moment, in dem ein Mitarbeiter personenbezogene Daten in ein öffentliches LLM kopiert, ist eine Datenübermittlung in ein Drittland mit allen Folgen, die das hat.“

Auftragsverarbeitung

Wer ein KI-System nutzt, das personenbezogene Daten verarbeitet, braucht einen Auftragsverarbeitungsvertrag mit dem Anbieter. Bei den großen KI-Anbietern gibt es solche Verträge mittlerweile. Aber nicht jede Konfiguration ist DSGVO-konform. Besonders Training auf eingegebenen Daten, Datenresidenz außerhalb der EU und Speicherdauer sind die kritischen Punkte.

Zweckbindung

Daten, die für einen bestimmten Zweck erhoben wurden, dürfen nicht einfach für einen anderen Zweck in ein KI-System eingespeist werden. Wer Kundendaten für den Versand erhebt, darf sie nicht ohne Weiteres zum Training eines Empfehlungs-Systems nutzen. Das klingt einfach, wird aber in der Praxis täglich verletzt.

Betroffenenrechte

Wenn ein KI-System über einen Menschen eine Entscheidung trifft oder maßgeblich vorbereitet, muss diese Entscheidung erklärbar und anfechtbar sein. Das ist bei LLMs anspruchsvoll und einer der Gründe, warum Hochrisiko-Systeme so viel Dokumentation brauchen.

Während Governance-Pflichten und AI-Act-Fragen in Besprechungen diskutiert werden, passiert in der Realität etwas anderes: Mitarbeiter nutzen KI-Werkzeuge ohne Wissen der IT. Das nennt sich Shadow-AI und ist heute in fast jedem Mittelständler ein relevantes Risiko.

Typische Szenarien

  • Vertragsentwürfe im Browser-LLM: Ein Mitarbeiter kopiert einen sensiblen Vertrag in ChatGPT, um ihn „kurz durchzugehen“. Die Daten wurden geteilt und bleiben je nach Dienst teilweise dauerhaft gespeichert.
  • Chrome-Erweiterungen mit KI-Funktionen: Viele Produktivitätswerkzeuge lesen mittlerweile den gesamten Seiteninhalt und geben ihn an externe Modelle weiter. Oft ist das den Nutzern nicht klar.
  • Code-Assistenten mit Firmen-Code: Entwickler nutzen KI-Werkzeuge mit proprietärem Code. Je nach Konfiguration fließen Teile des Codes in Trainingsdaten oder verbleiben in Chatverläufen.
  • HR-„Automatisierung“ ohne Freigabe: Mitarbeiter automatisieren eigene Aufgaben mit KI-Werkzeugen. Bewerberdaten, Gesprächsnotizen und interne Dokumente fließen unkontrolliert.

Was gegen Shadow-AI hilft

Die schlechteste Antwort ist Verbot. Verbote funktionieren nicht, weil der Druck, produktiv zu sein, stärker ist. Die zweitschlechteste Antwort ist Ignorieren. Die richtige Antwort ist: Sichtbar machen, gute Alternativen anbieten, Regeln klar kommunizieren.

Konkret: Ein Shadow-AI-Audit deckt auf, wo bereits KI im Einsatz ist und welche Daten dabei fließen. Auf dieser Basis entsteht eine Entscheidung, welche Werkzeuge offiziell freigegeben werden, welche mit Einschränkung erlaubt sind, welche verboten werden und warum. Ohne diese Transparenz bleibt jede Richtlinie Theorie.

Wer heute beginnen möchte, braucht nicht gleich ein umfangreiches Governance-Regelwerk. Das Minimum, das jede Organisation haben sollte, besteht aus sechs Elementen:

01
Bestandsaufnahme
Ein lebendes Dokument, das alle KI-Systeme erfasst, die im Unternehmen genutzt werden: offiziell und inoffiziell, intern und extern.
02
Basisrichtlinie
Eine kurze, klare Richtlinie, die regelt, welche Daten in welchen KI-Systemen verarbeitet werden dürfen. Verständlich geschrieben, nicht juristisch.
03
Freigabe-Prozess
Ein definierter Weg, wie neue KI-Werkzeuge geprüft und freigegeben werden. Mit klarer Verantwortlichkeit und Zeitrahmen, damit er genutzt wird.
04
Rollen-Benennung
Eine Person oder kleine Gruppe im Haus, die für KI-Themen zentral ansprechbar ist, auch wenn sie nicht alles selbst entscheidet.
05
Dokumentation pro System
Ein einheitliches Format, in dem jedes eingesetzte KI-System beschrieben ist: Zweck, Datengrundlage, Risiko-Einstufung, Verantwortlicher.
06
Regelmäßige Prüfung
Ein regelmäßiger Termin, monatlich oder quartalsweise, in dem die KI-Landschaft geprüft wird. Einmal aufsetzen reicht nicht.

Klingt nach einem
sinnvollen Gespräch?

40 Minuten System-Sparring: unverbindlich, kostenlos. Ihr beschreibt eure Lage. Wir sagen ehrlich, welcher nächste Schritt realistisch ist.

40 Minuten System-Sparring zur Einordnung eurer Governance-Lage. Unverbindlich.