Schatten-KI? Was ist das?
Unter Schatten-KI versteht man den Einsatz von KI-Tools außerhalb der offiziellen IT- und Compliance-Strukturen eines Unternehmens. In der Praxis geschieht dies oft beiläufig. Ein Arzt lässt ChatGPT die Labordaten auf mögliche Differentialdiagnosen prüfen, eine Schreibkraft lässt den Entlassbriefs durch KI auf Schreibfehler und Grammatik prüfen oder ein Controller lädt Leistungsdaten hoch, um sie mit Hilfe einer externen Anwendung auszuwerten. Solche Handlungen erscheinen im hektischen Klinikalltag als nützliche Abkürzungen, sind aber in Wirklichkeit rechtlich hochriskant. Sobald personenbezogene Informationen und insbesondere Gesundheitsdaten unkontrolliert an externe Anbieter gelangen, geraten Ärztinnen und Ärzte ebenso wie die Krankenhausleitung in den Fokus von Strafrecht, Datenschutz und Berufsrecht.
Systeme, wie z.B. ChatGPT, Google Gemini oder Microsoft Copilot, arbeiten standardmäßig cloudbasiert. Das bedeutet, dass Daten nicht lokal in der Klinik verbleiben, sondern über das Internet an Server des Anbieters gesendet werden. Diese Server stehen häufig in den USA oder in anderen Drittländern. Bei frei zugänglichen KI-Diensten ist es für den Nutzer nicht überprüfbar, wie genau Daten verarbeitet, gespeichert oder weiterverwendet werden.
Selbst wenn Anbieter zusichern, Eingaben nicht für Trainingszwecke zu verwenden, fehlt in der Regel die volle Kontrolle über Speicherfristen, Zugriffsrechte oder Sicherheitsmaßnahmen. Einmal preisgegebene Daten lassen sich nicht mehr zurückholen. Anders als bei internen IT-Systemen gibt es keine Möglichkeit, alle Kopien, Backups oder Protokolle in fremden Infrastrukturen vollständig zu löschen. Damit ist jede Eingabe in ChatGPT & Co. de facto irreversibel und dauerhaft mit einem Kontrollverlust verbunden.
Strafrechtliche Risiken: Schweigepflichtverletzung nach §203 StGB
Im Zentrum steht die ärztliche Schweigepflicht, die durch §203 StGB besonders geschützt ist. Dieser Paragraph stellt klar, dass sich strafbar macht, wer Patientengeheimnisse unbefugt offenbart:
(1) Wer unbefugt ein fremdes Geheimnis, namentlich ein zum persönlichen Lebensbereich gehörendes Geheimnis oder ein Betriebs- oder Geschäftsgeheimnis, offenbart, das ihm als
-
1. Arzt, Zahnarzt, Tierarzt, Apotheker oder Angehörigen eines anderen Heilberufs […] anvertraut worden oder sonst bekanntgeworden ist, wird mit Freiheitsstrafe bis zu einem Jahr oder mit Geldstrafe bestraft.
Schon die einmalige Eingabe identifizierbarer Daten in einen nicht abgesicherten Chatbot gilt rechtlich als solches „Offenbaren“. Damit wird deutlich, dass die Verwendung frei zugänglicher KI-Dienste im medizinischen Kontext keine harmlose Nebentätigkeit ist, sondern im schlimmsten Fall ein Straftatbestand. Hinzu kommen berufsrechtliche Folgen: Ärztekammern können Rügen oder strengere Maßnahmen verhängen, die im Extremfall bis zum Berufsverbot reichen.
DSGVO: Bußgelder drohen
Auch datenschutzrechtlich sind die Risiken enorm. Gesundheitsdaten zählen zu den besonders sensiblen Kategorien der Datenschutz-Grundverordnung. Ihre Verarbeitung ist nur unter strengen Voraussetzungen erlaubt. Liegt keine gültige Rechtsgrundlage vor, etwa eine Behandlung im Rahmen der Schweigepflicht, ist die Weitergabe an einen externen Anbieter grundsätzlich unzulässig. Ohne einen unterschriebenen Vertrag zur Auftragsverarbeitung, stellt jede Nutzung einen gravierenden Verstoß dar. Besonders brisant wird es, wenn Daten in Drittländer übertragen werden. Erfolgt die Verarbeitung in den USA, müssen entweder das EU-US Data Privacy Framework greifen oder Standardvertragsklauseln samt zusätzlicher Sicherheitsmaßnahmen vorliegen. Fehlen diese Grundlagen, liegt ein klarer Verstoß gegen die DSGVO vor.
Die Folgen können empfindlich sein. Bei schweren Datenschutzverletzungen drohen Bußgelder von bis zu 20 Millionen Euro oder bis zu vier Prozent des weltweiten Jahresumsatzes. So wurde in 2018 gegen ein Krankenhaus in Den Haag im Zusammenhang mit einem Verstoß gegen die DSGVO ein Bußgeld in Höhe von
€ 460.000 verhängt.
DSGVO: Immaterieller Schadensersatz
Betroffene können nach Art. 82 DSGVO immateriellen Schadensersatz geltend machen.
ChatGPT:
Der EU AI Act: Neue Spielregeln für den KI-Einsatz
Seit August 2024 ist der EU AI Act in Kraft, seine Vorgaben werden jedoch schrittweise ab 2025 anwendbar. Für Krankenhäuser bringt er grundlegende Veränderungen mit sich. Seit 2. August 2025 haben Betreiber und Anbieter von KI-Lösungen bereits diverse Pflichten, die davon abhängig sind, welche Rolle das Krankenhaus bei einer konkreten KI-Lösung einnimmt und ob es sich um ein Hochrisiko-KI-System, ein KI-System mit besonderem Risiko oder ein System mit geringem Risiko handelt.
(Hierzu mehr in den Blogartikeln:
https://das-krankenhaus-der-zukunft.de/ki-im-krankenhaus-umsetzung-der-ki-verordnung-in-der-praxis-teil-1/
und
https://das-krankenhaus-der-zukunft.de/ki-im-krankenhaus-umsetzung-der-ki-verordnung-in-der-praxis-teil-2/)
Haftung der Geschäftsführung
Handlungsperspektiven für Kliniken
Für Krankenhäuser bedeutet dies, dass sie schnellstens klare Strukturen schaffen müssen, um Schatten-KI zu verhindern. Nötig sind verbindliche KI-Richtlinien, die festlegen, welche Tools genutzt werden dürfen und welche nicht. Ebenso erforderlich sind KI-Lösungen, die die Anforderungen der DSGVO und des EU AI-Acts erfüllen.
Ein weiteres Element ist die Datenminimierung: Selbst bei freigegebenen Anwendungen sollten möglichst keine direkten Identifikatoren wie Namen oder Versicherungsnummern eingegeben werden. Ergänzend sind technische Schutzmaßnahmen, etwa Filter- und Kontrollsysteme, ebenso wichtig wie die systematische Schulung aller Mitarbeitenden im Umgang mit KI.
Schließlich müssen Datenschutz-Folgenabschätzungen und Grundrechtsprüfungen in die Routine integriert werden, damit neue Systeme vor ihrer Einführung rechtlich und ethisch abgesichert sind.
Fazit
Schatten-KI mag im hektischen Klinikalltag wie eine willkommene Abkürzung erscheinen. Tatsächlich aber stellt sie ein erhebliches Risiko dar, das von der Verletzung der Schweigepflicht über schwerwiegende Datenschutzverstöße bis hin zu hohen Bußgeldern reicht. Die Lösung besteht darin, klare Strukturen zu schaffen und den Einsatz von KI von Anfang an rechtssicher zu gestalten. Nur mit Lösungen, die rechtlich abgesichert sind, mit konsequenter Datenhygiene, verbindlichen Policies und regelmäßigen Schulungen kann KI im Krankenhaus verantwortungsvoll eingesetzt werden. So wird aus einem Risiko eine echte Chance – und aus der Schatten-KI eine Technologie im Krankenhaus der Zukunft.
Adam Pawelek
HC-Change Consulting


Du muss angemeldet sein, um einen Kommentar zu veröffentlichen.