Stefan Fleckenstein 7. April 2026 Lesezeit: ca. 15 Minuten

KI und Datenschutz: Was Unternehmen beachten müssen

Die Verbindung von Künstlicher Intelligenz und Datenschutz stellt Unternehmen vor komplexe Herausforderungen. Zwischen DSGVO, dem neuen EU AI Act und praktischen Implementierungsfragen gibt es viel zu beachten. Dieser Leitfaden bringt Klarheit.

Inhaltsverzeichnis

  1. Warum Datenschutz bei KI besonders wichtig ist
  2. DSGVO-Anforderungen an KI-Systeme
  3. Der EU AI Act: Was kommt auf Unternehmen zu
  4. Rechtsgrundlagen für die Datenverarbeitung
  5. Anonymisierung und Pseudonymisierung
  6. Einwilligung und Transparenz
  7. Datenminimierung in der Praxis
  8. KI-Anbieter datenschutzkonform evaluieren
  9. Praktische Compliance-Schritte
  10. Dokumentationsanforderungen
  11. Häufig gestellte Fragen

Warum Datenschutz bei KI besonders wichtig ist

Künstliche Intelligenz und Datenschutz stehen in einem natürlichen Spannungsfeld. KI-Systeme benötigen große Mengen an Daten, um zu lernen und gute Ergebnisse zu liefern. Gleichzeitig fordert der Datenschutz, dass personenbezogene Daten sparsam und zweckgebunden verarbeitet werden.

Dieses Spannungsfeld ist kein unüberwindbares Hindernis. Es erfordert aber ein bewusstes, strukturiertes Vorgehen. Unternehmen, die Datenschutz von Anfang an in ihre KI-Strategie integrieren, vermeiden nicht nur rechtliche Risiken, sondern schaffen auch Vertrauen bei Kunden und Mitarbeitern.

Die rechtlichen Anforderungen kommen aus zwei Richtungen: der seit 2018 geltenden Datenschutz-Grundverordnung (DSGVO) und dem 2024 verabschiedeten EU AI Act, der schrittweise in Kraft tritt. Beide Regelwerke ergänzen sich und setzen Rahmenbedingungen, die Unternehmen bei der Einführung von KI kennen und beachten müssen.

DSGVO-Anforderungen an KI-Systeme

Die DSGVO wurde nicht speziell für KI geschrieben, enthält aber grundlegende Prinzipien, die direkt auf KI-Systeme anwendbar sind. Die wichtigsten Anforderungen im KI-Kontext:

Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO)

Personenbezogene Daten dürfen nur für festgelegte, eindeutige und legitime Zwecke erhoben werden. Für KI bedeutet das: Sie können nicht einfach alle verfügbaren Kundendaten in ein Modell laden und schauen, was passiert. Der Zweck der Datenverarbeitung muss vorab definiert und dokumentiert werden.

Datenminimierung (Art. 5 Abs. 1 lit. c DSGVO)

Nur diejenigen personenbezogenen Daten dürfen verarbeitet werden, die für den definierten Zweck tatsächlich erforderlich sind. Das steht im Widerspruch zum KI-Grundsatz, dass mehr Daten zu besseren Ergebnissen führen. Hier brauchen Sie eine bewusste Abwägung.

Recht auf Erklärung (Art. 22 DSGVO)

Betroffene Personen haben das Recht, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihnen gegenüber rechtliche Wirkung entfaltet. In der Praxis bedeutet das: Wenn KI-Systeme Entscheidungen über Menschen treffen – etwa bei Kreditvergabe, Bewerbungsverfahren oder Preisgestaltung – muss es eine menschliche Überprüfungsmöglichkeit geben.

Wichtig: Die DSGVO verbietet nicht den Einsatz von KI. Sie fordert aber einen verantwortungsvollen Umgang mit personenbezogenen Daten. Mit der richtigen Planung lassen sich KI-Innovation und Datenschutz vereinbaren.

Der EU AI Act: Was kommt auf Unternehmen zu

Der EU AI Act ist das weltweit erste umfassende Regulierungswerk für Künstliche Intelligenz. Er verfolgt einen risikobasierten Ansatz und unterscheidet vier Kategorien:

Unannehmbares Risiko (verboten)

KI-Systeme, die als unannehmbar riskant eingestuft werden, sind grundsätzlich verboten. Dazu gehören beispielsweise Social-Scoring-Systeme, die Manipulation von Verhalten durch unterschwellige Techniken und bestimmte Formen der biometrischen Fernidentifizierung.

Hohes Risiko (streng reguliert)

Hochrisiko-Anwendungen sind erlaubt, unterliegen aber umfangreichen Anforderungen. Dazu zählen KI-Systeme in den Bereichen Personalmanagement (z.B. automatisierte Bewerberselektion), Kreditwürdigkeit, kritische Infrastruktur und Strafverfolgung. Unternehmen müssen hier unter anderem Risikomanagementsysteme einrichten, Qualitätsanforderungen an Trainingsdaten erfüllen und eine technische Dokumentation führen.

Begrenztes Risiko (Transparenzpflichten)

Für viele typische Unternehmensanwendungen gelten Transparenzpflichten. Nutzer müssen wissen, dass sie mit einem KI-System interagieren. Das betrifft insbesondere Chatbots und KI-generierte Inhalte. Für die meisten mittelständischen Anwendungen wie KI im Vertrieb und Marketing ist dies die relevante Kategorie.

Minimales Risiko (keine zusätzlichen Pflichten)

KI-Anwendungen mit minimalem Risiko – etwa Spam-Filter oder KI-gestützte Suchfunktionen – unterliegen keinen besonderen Anforderungen über die bestehende Gesetzgebung hinaus.

Rechtsgrundlagen für die Datenverarbeitung

Jede Verarbeitung personenbezogener Daten durch KI-Systeme braucht eine Rechtsgrundlage nach Art. 6 DSGVO. In der Praxis kommen vor allem drei Grundlagen in Betracht:

Anonymisierung und Pseudonymisierung

Anonymisierung und Pseudonymisierung sind zwei zentrale Werkzeuge, um KI datenschutzkonform zu betreiben.

Anonymisierung bedeutet, dass ein Rückschluss auf einzelne Personen dauerhaft unmöglich ist. Anonymisierte Daten fallen nicht mehr unter die DSGVO – das ist der Goldstandard für KI-Training. Allerdings ist echte Anonymisierung technisch anspruchsvoll: Selbst vermeintlich anonyme Datensätze lassen sich oft durch Kombination verschiedener Merkmale re-identifizieren.

Pseudonymisierung ersetzt identifizierende Merkmale durch Kennzeichen, ohne dass ein Personenbezug vollständig ausgeschlossen ist. Pseudonymisierte Daten unterliegen weiterhin der DSGVO, werden aber als risikomindernde Maßnahme anerkannt.

Einwilligung und Transparenz

Wenn Ihr KI-System personenbezogene Daten auf Basis einer Einwilligung verarbeitet, müssen Sie sicherstellen, dass die Einwilligung den strengen DSGVO-Anforderungen genügt:

Datenminimierung in der Praxis

Datenminimierung klingt im KI-Kontext zunächst wie ein Widerspruch. Tatsächlich ist sie aber eine Chance, fokussiertere und bessere Modelle zu entwickeln. Praktische Ansätze:

KI-Anbieter datenschutzkonform evaluieren

Bei der Auswahl von KI-Anbietern sollten Sie neben funktionalen Anforderungen auch den Datenschutz systematisch prüfen. Achten Sie auf folgende Punkte:

Praxis-Tipp: Erstellen Sie eine standardisierte Checkliste für die Datenschutz-Evaluation von KI-Anbietern. So stellen Sie sicher, dass bei jeder Beschaffung dieselben Kriterien angelegt werden. Ein erfahrener KI-Berater kann Sie dabei unterstützen.

Praktische Compliance-Schritte

Datenschutz-Compliance ist kein einmaliges Projekt, sondern ein fortlaufender Prozess. Folgende Schritte helfen Ihnen, den Überblick zu behalten:

  1. Verarbeitungsverzeichnis erweitern: Nehmen Sie alle KI-Verarbeitungstätigkeiten in Ihr bestehendes Verarbeitungsverzeichnis auf. Dokumentieren Sie Zweck, Rechtsgrundlage, beteiligte Daten und Empfänger.
  2. Datenschutz-Folgenabschätzung (DSFA): Prüfen Sie für jedes KI-Projekt, ob eine DSFA erforderlich ist. Bei Verarbeitungen mit hohem Risiko für die Rechte der Betroffenen ist sie Pflicht.
  3. Datenschutzbeauftragten einbinden: Beziehen Sie Ihren Datenschutzbeauftragten von Anfang an in KI-Projekte ein – nicht erst, wenn das System bereits im Einsatz ist.
  4. Betroffenenrechte sicherstellen: Implementieren Sie Prozesse für Auskunftsrechte, Löschrechte und das Recht auf Widerspruch. KI-Systeme müssen diese Rechte technisch unterstützen.
  5. Regelmäßige Audits: Überprüfen Sie Ihre KI-Systeme mindestens jährlich auf Datenschutzkonformität. Dokumentieren Sie die Ergebnisse und leiten Sie Maßnahmen ab.

Dokumentationsanforderungen

Sowohl DSGVO als auch AI Act stellen hohe Anforderungen an die Dokumentation. Für KI-Systeme sollten Sie mindestens folgende Dokumente erstellen und pflegen:

Die Dokumentation mag aufwendig erscheinen, ist aber in mehrfacher Hinsicht wertvoll: Sie schafft Transparenz, erleichtert Audits und hilft bei der kontinuierlichen Verbesserung Ihrer KI-Systeme. Und sie ist im Streitfall Ihre wichtigste Verteidigungslinie.

Mein Rat: Beginnen Sie nicht mit perfekter Dokumentation. Starten Sie mit dem Minimum und erweitern Sie schrittweise. Ein pragmatischer Ansatz, der konsequent umgesetzt wird, ist besser als ein ambitioniertes Konzept, das an der Umsetzung scheitert. Vermeiden Sie dabei die typischen Fehler der KI-Einführung.

Häufig gestellte Fragen

Grundsätzlich ja, aber nur unter strengen Voraussetzungen. Sie benötigen eine Rechtsgrundlage nach DSGVO – entweder eine Einwilligung, ein berechtigtes Interesse oder die Erfüllung eines Vertrags. Zudem müssen Sie die Grundsätze der Datenminimierung und Zweckbindung beachten. Anonymisierte oder synthetische Daten sind datenschutzrechtlich unkritisch und daher oft die bessere Wahl.
Für die meisten mittelständischen Anwendungen gelten die Anforderungen der Kategorie begrenztes Risiko, die vor allem Transparenzpflichten vorsehen. Hochrisiko-Anwendungen wie automatisierte Personalentscheidungen erfordern umfangreichere Compliance-Maßnahmen. Wichtig ist, frühzeitig zu prüfen, in welche Risikoklasse Ihre geplanten KI-Anwendungen fallen.
In vielen Fällen ja. Eine DSFA ist nach Art. 35 DSGVO immer dann erforderlich, wenn die Verarbeitung voraussichtlich ein hohes Risiko für die Rechte natürlicher Personen mit sich bringt. Bei KI-Systemen, die personenbezogene Daten verarbeiten, automatisierte Entscheidungen treffen oder Profile erstellen, ist dies häufig gegeben. Im Zweifel sollten Sie eine DSFA durchführen.
Schließen Sie einen Auftragsverarbeitungsvertrag (AVV) ab. Prüfen Sie, wo die Daten verarbeitet werden. Dokumentieren Sie die technischen und organisatorischen Maßnahmen des Anbieters. Achten Sie darauf, dass Ihre Daten nicht für das Training anderer Modelle verwendet werden. Und führen Sie regelmäßige Kontrollen durch.

KI datenschutzkonform einführen

Ich helfe Ihnen, KI-Projekte von Anfang an datenschutzkonform aufzusetzen. Pragmatisch, verständlich und ohne juristisches Fachchinesisch.

Erstgespräch vereinbaren