Anonymisieren, minimieren, Verantwortung tragen
Eine Praxisanleiterin möchte schnell eine Lernsituation vorbereiten. Ein komplexer Fall, wenig Zeit, viele Fragen. Also kurz den Verlauf kopieren, zwei Laborwerte dazu, noch die Medikation – und ab in ein KI-Tool?
Genau hier verläuft die rote Linie.
Denn was im Alltag nach Arbeitserleichterung aussieht, kann in Wahrheit ein Verstoß gegen Datenschutz und Berufsgeheimnis sein. Gerade in der Pflege ist das keine Nebensache. Es geht um hochsensible Informationen, um Vertrauen – und um die Frage, ob wir digitale Hilfsmittel professionell oder fahrlässig nutzen.
Nicht alles, was hilfreich wäre, darf auch hineingeschrieben werden.
Gesundheitsdaten sind kein normales Arbeitsmaterial
Gesundheitsdaten sind keine gewöhnlichen Informationen. Sie gehören zu den besonders sensiblen personenbezogenen Daten und unterliegen einem besonderen Schutz. Gleichzeitig gilt ein klarer Grundsatz: Es dürfen nur solche Daten verarbeitet werden, die für einen bestimmten Zweck wirklich notwendig sind.
Genau hier kommen zwei Begriffe ins Spiel, die im Alltag oft trocken klingen, aber hochpraktisch sind: Zweckbindung und Datenminimierung.
Hinzu kommt das Berufsgeheimnis. Wer im Gesundheitswesen mit vertraulichen Informationen arbeitet, trägt Verantwortung dafür, dass diese Informationen nicht unbefugt weitergegeben oder offengelegt werden. Das gilt auch dann, wenn dies nicht aus böser Absicht geschieht, sondern aus Zeitdruck, Unsicherheit oder falsch verstandener Alltagserleichterung.
Das macht die Sache klarer: Ein Fallbericht ist nicht einfach „Text“. Eine Wundanamnese ist nicht einfach „Material“. Eine Übergabenotiz ist nicht einfach „Input“.
Datenminimierung klingt trocken. Ist aber hochpraktisch.
Datenminimierung bedeutet nicht: ein bisschen weniger. Es bedeutet: nur das, was für den konkreten Zweck wirklich nötig ist.
Für die Praxisanleitung heißt das ganz konkret:
Wenn Sie eine Reflexionsfrage, ein Fallbeispiel oder einen Lernauftrag formulieren möchten, brauchen Sie in aller Regel keinen Namen, kein Geburtsdatum, keine Zimmernummer, kein konkretes Aufnahmedatum, keine Versicherung, keinen Originalbefund und meist auch keine vollständige Medikationsliste.
Oft reicht schon:
„Eine hochbetagte Person mit Herzinsuffizienz und eingeschränkter Belastbarkeit lehnt Mobilisation ab.“
Das ist fachlich nutzbar – ohne unnötige Offenlegung.
Die entscheidende Frage lautet nicht: Was wäre praktisch? Sondern: Was ist dafür wirklich erforderlich?
Anonymisieren ist mehr als Namen löschen
Ein häufiger Irrtum im Alltag lautet: Name weg, also anonym.
So einfach ist es nicht. Wirklich anonym sind Daten erst dann, wenn eine Person daraus nicht mehr identifiziert werden kann. Genau das ist in der Praxis schwieriger, als es auf den ersten Blick scheint.
Denn identifizierbar wird eine Person nicht nur über ihren Namen. Auch eine Kombination mehrerer Angaben kann ausreichen, zum Beispiel:
- 43 Jahre
- seltene neurologische Erkrankung
- Aufnahme nach Reitunfall
- kleine Reha-Einrichtung
- zwei minderjährige Kinder
- Entlassung für kommenden Freitag geplant
Schon diese Kombination kann genügen, damit ein Fall wiedererkannt wird.
Das ist der Punkt, an dem viele vermeintlich „anonymisierte“ Fallschilderungen in Wahrheit nur oberflächlich entpersonalisiert sind.
Was in KI-Tools hinein darf
Die gute Nachricht: Es gibt sinnvolle, datensparsame Wege, generative KI im beruflichen Kontext zu nutzen.
Unproblematisch oder zumindest deutlich weniger riskant sind in der Regel:
- allgemeine Fachfragen ohne Personenbezug
- didaktische Ideen für Anleitungssituationen
- Formulierungshilfen für Lernziele, Feedback oder Reflexionsfragen
- komplett fiktive Fallbeispiele
- konsequent abstrahierte Situationen, bei denen eine Wiedererkennung realistisch ausgeschlossen ist
- eigene Strukturtexte, Checklisten oder Schulungsskizzen ohne Patient:innen-, Bewohner:innen-, Kolleg:innen- oder Azubidaten
Sobald jedoch echte personenbezogene Daten im Spiel sind, steigen die Anforderungen massiv.
Die praktische Konsequenz lautet: Echte Falldaten gehören nicht in frei verfügbare oder nicht ausdrücklich freigegebene KI-Systeme.
Was nie hinein darf
Hier wird es deutlich. In generative KI-Tools – jedenfalls ohne klar geregelte, datenschutzkonforme betriebliche Lösung – gehören nicht hinein:
- Namen, Initialen, Geburtsdaten, Adressen, Telefonnummern
- Fotos, Wundbilder, Scans, Arztbriefe, Laborblätter, EKGs, Verlaufsdokumentation
- Diagnosen in identifizierbarer Kombination mit Alter, Ort, Zeitpunkt oder Besonderheiten
- Informationen über Angehörige, Konflikte, Sucht, psychische Krisen oder Biografie, wenn Rückschlüsse möglich sind
- Daten von Auszubildenden oder Kolleg:innen, etwa zu Leistung, Fehlzeiten, Krankheit, Konflikten oder Verdachtsmomenten
- komplette Dokumentation „zur Analyse“
- Sprachmemos, Übergaben oder Freitexteinträge aus dem Originalsystem
Denn auch Beschäftigtendaten und Ausbildungsdaten sind personenbezogene Daten. Auch hier gelten Datenschutz, Vertraulichkeit und Zweckbindung.
Wer aus Frust oder Zeitdruck „mal eben“ einen echten Fall hineinkopiert, vergrößert nicht nur das Risiko für die betroffene Person – sondern auch für sich selbst und die Einrichtung.
Der kleine Unterschied zwischen Lernen und Offenbaren
Vielleicht kennen Sie solche Sätze:
„Ich wollte doch nur eine Formulierungshilfe.“
„Der Name war ja gar nicht dabei.“
„Das liest doch sowieso niemand.“
„Ich habe es nur für die Anleitung benutzt.“
Genau darin liegt die Gefahr. Gute Absicht ersetzt keine rechtliche oder professionelle Grundlage. Und Zeitdruck ersetzt keine sorgfältige Prüfung.
Berufsgeheimnis und Datenschutz schützen nicht nur vor bewusster Weitergabe. Sie schützen auch vor beiläufigem, technisch vermitteltem Offenbaren. Gerade digitale Systeme verleiten dazu, Inhalte als „neutralen Input“ zu betrachten. In Wahrheit können sie aber sensible Lebensdaten realer Menschen enthalten.
Ein alltagstauglicher Prüfstein
Bevor etwas in ein KI-Tool eingegeben wird, helfen drei kurze Fragen:
1. Brauche ich überhaupt echte Daten?
In den meisten Fällen: nein.
2. Könnte jemand die Person trotz Weglassen des Namens erkennen?
Wenn ja oder vielleicht: nicht eingeben.
3. Ist das Tool von meiner Einrichtung ausdrücklich freigegeben, technisch abgesichert und für diesen Zweck vorgesehen?
Wenn das unklar ist: Finger weg.
Manchmal ist die sicherste Lösung auch die einfachste: Fall abstrahieren, Merkmale verallgemeinern, Daten weglassen – oder ganz ohne echten Fall arbeiten.
Fallbeispiel aus dem Alltag
Eine Praxisanleiterin möchte mit einer Auszubildenden ein schwieriges Gespräch über Delirprävention, Flüssigkeitsbilanz und Angehörigenkommunikation vorbereiten. Sie überlegt, den aktuellen Stationsfall in ein KI-Tool einzugeben.
Die sichere Variante wäre:
Nicht den echten Verlauf kopieren, sondern die Lernsituation neu formulieren:
„Erstelle mir ein Fallbeispiel für eine ältere, akut verwirrte Person mit Exsikkoserisiko. Ergänze drei Reflexionsfragen für eine Auszubildende im zweiten Ausbildungsdrittel und eine kurze Struktur für ein Anleitungsgespräch.“
Der Lerneffekt bleibt. Das Risiko sinkt drastisch.
Professionell ist nicht, möglichst viele Daten zu nutzen. Professionell ist, mit möglichst wenig Daten auszukommen.
Was Einrichtungen jetzt leisten müssen
Datenschutz darf nicht an Einzelne delegiert werden, die zwischen Dienstübergabe, Anleitung und Personalmangel „irgendwie richtig“ entscheiden sollen.
Wenn Einrichtungen den Einsatz von KI im Lern- oder Arbeitsalltag dulden oder fördern, brauchen Mitarbeitende klare Rahmenbedingungen:
- eindeutige Regeln, welche Tools genutzt werden dürfen
- Schulungen zu Datenschutz, Berufsgeheimnis, Anonymisierung und Wiedererkennungsrisiken
- verbindliche Freigabeprozesse
- technische und organisatorische Schutzmaßnahmen
- konkrete Positiv- und Negativbeispiele für den Alltag
Gerade bei sensiblen Gesundheitsdaten reicht ein vages „Bitte vorsichtig sein“ nicht aus.
Praxiswissen kompakt
Was darf rein?
- allgemeine Fachfragen
- fiktive Fälle
- abstrahierte Lernsituationen
- Reflexionsfragen ohne Personenbezug
- eigene didaktische Entwürfe ohne Echtdaten
Was darf nie rein?
- identifizierbare Patient:innen- oder Bewohner:innendaten
- nur scheinbar anonymisierte Einzelfälle
- Originaldokumentation, Bilder, Befunde, Medikation
- sensible Daten zu Auszubildenden oder Kolleg:innen
- alles, was unter Schweigepflicht oder Vertraulichkeit fällt
Merksatz für den Alltag:
Namen löschen reicht nicht. Weglassen ist oft sicherer als umformulieren.
Und jetzt?
Vielleicht ist genau das die wichtigste Haltung für den Umgang mit KI in der Praxisanleitung: nicht zuerst fragen, was technisch möglich ist – sondern was fachlich verantwortbar bleibt.
Denn digitale Unterstützung kann sinnvoll sein. Aber Vertrauen, Vertraulichkeit und Schutzbedürftigkeit von Menschen sind kein Zusatzthema. Sie sind Teil professioneller Pflege.
Und manchmal beginnt Professionalität mit einem sehr kurzen Satz:
Diesen echten Fall schreibe ich hier nicht hinein.


