Sicherheit
KI-Tools: Warum du die Verantwortung behältst
KI-Tools produzieren, was du akzeptierst. Drei Prinzipien für Datenschutz, Qualitätssicherung und Verantwortung im Business-Einsatz.
Werkzeuge, nicht Kollegen
Eine Bohrmaschine bohrt genau da, wo du sie hinhältst. Nicht daneben, nicht woanders. Wenn das Loch an der falschen Stelle ist, war es nicht die Bohrmaschine. KI-Tools sind deutlich mächtiger als eine Bohrmaschine, aber das Grundprinzip ist dasselbe: Das Ergebnis verantwortest du.
Wenn du einen Text mit ChatGPT schreibst und ihn per Copy-Paste in eine E-Mail packst, ist die Sache relativ klar. Du liest den Text, du verschickst ihn, du stehst dahinter. Schwieriger wird es, wenn KI-Tools autonom arbeiten: Ein Coding-Agent ändert Dateien in deinem Projekt. Ein Automatisierungstool verschickt Nachrichten in deinem Namen. Ein KI-Assistent erstellt Dokumente, die direkt in ein Ticket fließen. (Wenn du noch einen Überblick brauchst, welche Tools es gibt und was sie können: KI-Tools im Überblick.)
Genau da wird Verantwortung unscharf, wenn du nicht aufpasst. Dieser Artikel zeigt dir drei Prinzipien, mit denen du die Kontrolle behältst.
Verstehe, was die KI vorhat
Bevor du ein KI-Tool arbeiten lässt, lies den Plan. Viele Tools zeigen dir, was sie vorhaben, bevor sie loslegen. Ein Coding-Agent (z.B. Claude Code oder Cursor) listet auf, welche Dateien er ändern will und warum. Ein Automatisierungstool zeigt den Workflow, bevor es ihn ausführt.
Diesen Plan zu lesen ist keine Zeitverschwendung. Es ist dein wichtigstes Kontrollinstrument. Stimmt der Ansatz? Werden die richtigen Dateien angefasst? Fehlt etwas? Wenn dir etwas unklar ist: Frag nach. Lieber einmal zu viel "Warum willst du das so machen?" als blind auf "Ja, mach" klicken.
Das gilt nicht nur für Code. Jedes KI-Ergebnis verdient einen kritischen Blick, bevor du es weitergibst oder umsetzt.
Praxis: Datenschutz-Check vor dem API-Einsatz
Bevor du eine KI-API in ein internes Tool einbaust, solltest du vorher klären, welche Daten du überhaupt an die API schicken darfst. Ein guter erster Schritt:
Ich möchte Claude API in unserem internen Tool nutzen. Welche Daten darf ich an die API schicken und welche nicht? Wir verarbeiten Kundendaten mit Name, E-Mail und Bestellhistorie.
Ich möchte Claude API in unserem internen Tool nutzen. Welche Daten darf ich an die API schicken und welche nicht? Wir verarbeiten Kundendaten mit Name, E-Mail und Bestellhistorie.
Hier eine Einordnung, welche Daten du an die API senden kannst und wo du vorsichtig sein musst:
Grundsätzlich gilt: Anthropic speichert bei API-Nutzung die Eingaben standardmäßig nicht zum Modell-Training (anders als bei der Consumer-Version). Das steht in den API Terms of Service. Trotzdem gelten die DSGVO-Pflichten für dich als Verantwortlicher.
Was du klären musst, bevor du startest:
- Auftragsverarbeitungsvertrag (AVV): Du brauchst einen AVV mit Anthropic, bevor personenbezogene Daten über die API fließen. Anthropic bietet ein Data Processing Addendum (DPA) an.
- Datentransfer USA: Anthropic sitzt in den USA. Du brauchst eine Rechtsgrundlage für den Drittlandtransfer, aktuell über das EU-US Data Privacy Framework (falls Anthropic zertifiziert ist) oder Standardvertragsklauseln.
- Datenminimierung: Schicke nur die Daten, die für die Aufgabe nötig sind.
Konkret für euren Fall:
- Bestellhistorie ohne Personenbezug: Wenn du die Bestelldaten anonymisierst (Bestell-ID statt Kundenname, keine E-Mail), kannst du sie in der Regel problemlos senden.
- Name und E-Mail: Nur senden, wenn es für die Aufgabe zwingend nötig ist. Oft reicht eine Kunden-ID.
- Kreditkartendaten, Passwörter, Gesundheitsdaten: Niemals an externe APIs senden.
Empfehlung: Baue eine Middleware, die personenbezogene Daten herausfiltert oder pseudonymisiert, bevor sie an die API gehen. So bist du auf der sicheren Seite.
Praxis: KI-Nutzungsrichtlinie für dein Team
Wenn mehrere Leute im Team KI-Tools nutzen, braucht ihr klare Regeln. Nicht 20 Seiten Policy, sondern eine knappe Richtlinie, die jeder liest und versteht.
Erstelle eine kompakte KI-Nutzungsrichtlinie für unser Entwicklerteam (8 Personen). Wir nutzen Claude Code und GitHub Copilot. Wir arbeiten an einer SaaS-Plattform mit Kundendaten. Maximal eine Seite.
KI-Nutzungsrichtlinie, Stand März 2026
Erlaubte Tools: Claude Code (via API, AVV vorhanden), GitHub Copilot (Enterprise, AVV vorhanden). Andere KI-Tools nur nach Freigabe durch Teamlead.
Diese Daten gehen nicht in KI-Tools:
- Kundendaten (Namen, E-Mails, Adressen, Zahlungsdaten)
- API-Keys, Passwörter, Secrets, Tokens
- Interne Finanzdaten und Gehaltsinformationen
- Daten aus der Produktionsdatenbank
Diese Daten sind in Ordnung:
- Eigener Code (der ohnehin auf GitHub liegt)
- Öffentliche Dokumentation und Fehlermeldungen
- Anonymisierte oder synthetische Testdaten
- Architektur-Fragen ohne Kundenbezug
Pflichten bei jeder KI-Nutzung:
- Jeden generierten Code reviewen, bevor er committet wird
- Keine KI-generierten Texte ohne Prüfung an Kunden senden
- Bei Security-relevantem Code: zusätzliches manuelles Review
- Bei Unsicherheit: Teamlead fragen
Verstöße: Wer versehentlich sensible Daten an ein KI-Tool geschickt hat, meldet das sofort an den Teamlead. Kein Blame, aber wir müssen es dokumentieren und ggf. den Datenschutzbeauftragten informieren.
Was passiert, wenn Daten einmal draußen sind?
Ein konkretes Risikoszenario: Ein Entwickler kopiert eine Support-Anfrage mit Kundendaten in ChatGPT, um schneller eine Antwort zu formulieren. Die Anfrage enthält den vollen Namen, die E-Mail-Adresse und Details zum Vertrag des Kunden.
Was jetzt passiert ist:
- Die Daten liegen auf OpenAI-Servern in den USA
- Bei der Consumer-Version (chat.openai.com) können die Daten für Modell-Training verwendet werden, es sei denn der Nutzer hat das in den Einstellungen deaktiviert
- Ein Drittlandtransfer ohne Rechtsgrundlage ist ein DSGVO-Verstoß
- Je nach Umfang kann das meldepflichtig sein (Artikel 33 DSGVO, 72-Stunden-Frist)
Was ihr tun solltet: Nutzt die ChatGPT Team- oder Enterprise-Version, wenn ChatGPT im Einsatz ist. Dort werden Daten nicht fürs Training verwendet und es gibt einen AVV. Oder besser: Baut den Reflex ab, Kundendaten zu kopieren. Anonymisiert zuerst, fragt dann.
Kontrolliere jede Änderung
Zwischen "die KI hat etwas produziert" und "es ist live" liegt deine Kontrollschicht. Zwei Dinge helfen dir dabei.
Erstens: Schau dir an, was sich geändert hat. Nichts committen, mergen oder veröffentlichen, ohne es gesehen zu haben. Wenn du mit Code arbeitest, sind Git Diffs dein bester Freund. Nicht nur "hat sich was geändert", sondern: Verstehe ich, warum sich das geändert hat? Wenn du einen Diff nicht erklären kannst, solltest du ihn nicht freigeben. Das gleiche Prinzip gilt für Texte, Designs und Konfigurationen: Vergleiche das Ergebnis mit dem, was vorher da war.
Zweitens: Gib KI-Tools nur die Rechte, die sie brauchen. Kein Schreibzugriff auf Produktion. Keine Admin-Rechte, wenn Leserechte reichen. Viele Tools bieten Bestätigungsdialoge oder verschiedene Permission-Modes (z.B. fragt Claude Code vor jeder Dateiänderung). Diese Dialoge sind kein Hindernis, sie sind dein Sicherheitsnetz. Nicht wegklicken, sondern lesen.
Praxistipp: KI-Tools halten sich nur an Grenzen, die du ihnen mitteilst. Die meisten Tools haben Konfigurationsdateien oder Projektregeln, in denen du Grenzen definieren kannst. In Claude Code gibt es dafür die CLAUDE.md, in anderen Tools ähnliche Mechanismen. Leg dort fest: kein automatisches Pushen, kein eigenständiges Committen, keine Änderungen an bestimmten Dateien oder Verzeichnissen. Mach das am Anfang jedes Projekts. Was du nicht verbietest, wird irgendwann passieren.
Du bist der Mensch im Loop
Es gibt kein "die KI hat das so gemacht". Nicht gegenüber dem Chef, nicht gegenüber dem Kunden, nicht gegenüber den Nutzern deines Produkts. Wenn du ein KI-Ergebnis übernimmst, ist es dein Ergebnis. Du hast es geprüft (oder eben nicht), du hast es freigegeben, du hast es veröffentlicht.
Das ist aber keine Last. Es ist eine Kompetenz.
Jeder kann einen Prompt abfeuern. Nicht jeder kann beurteilen, ob das Ergebnis gut ist. Wer KI-Ergebnisse einordnen, prüfen und verbessern kann, liefert bessere Arbeit als jemand, der alles blind übernimmt. Diese Fähigkeit wird mit zunehmender KI-Nutzung wertvoller, nicht weniger. Denn je mehr Menschen KI-Tools nutzen, desto mehr fällt auf, wer die Ergebnisse versteht und wer nur weiterleitet.
Bleib am Steuer
KI-Tools machen dich produktiver. Sie nehmen dir Routinearbeit ab, beschleunigen Entwürfe und helfen dir, schneller zu brauchbaren Ergebnissen zu kommen. Aber sie machen dich nicht verantwortungsloser.
Die Kombination aus KI-Geschwindigkeit und deinem Urteilsvermögen ist stärker als jedes Tool allein. Wer das versteht und danach handelt, wird mit KI-Tools bessere Ergebnisse liefern als je zuvor. Wer es ignoriert, wird irgendwann erklären müssen, warum etwas schiefgegangen ist.
Nutze die Werkzeuge. Aber bleib am Steuer.
Übrigens: Dass Verantwortung beim Menschen liegt, ist nicht nur eine gute Idee, es wird bald auch regulatorisch verankert. Der EU AI Act macht menschliche Aufsicht bei bestimmten KI-Systemen zur Pflicht.