Schatten-KI im Krankenhaus

Schatten-KI im Krankenhaus – ein unterschätztes Risiko

Künstliche Intelligenz ist längst im Krankenhausalltag angekommen – oft jedoch nicht in kontrollierten, sondern in spontanen, unregulierten Anwendungen. Ärztinnen, Ärzte, Pflegekräfte oder Verwaltungspersonal greifen schnell zu frei verfügbaren Tools wie ChatGPT, um Texte zu formulieren, Analysen zu erstellen oder komplexe Informationen aufzubereiten. Dieses Phänomen, häufig als „Schatten-KI“ bezeichnet, wirkt auf den ersten Blick praktisch und zeitsparend, birgt aber erhebliche Risiken: Wer Patientendaten in externe Systeme einspeist, kann nicht nur die Schweigepflicht verletzen, sondern sich auch erheblichen straf- und datenschutzrechtlichen Konsequenzen aussetzen. 

Schatten-KI? Was ist das?

Unter Schatten-KI versteht man den Einsatz von KI-Tools außerhalb der offiziellen IT- und Compliance-Strukturen eines Unternehmens. In der Praxis geschieht dies oft beiläufig. Ein Arzt lässt ChatGPT die Labordaten auf mögliche Differentialdiagnosen prüfen, eine Schreibkraft lässt den Entlassbriefs durch KI auf Schreibfehler und Grammatik prüfen oder ein Controller lädt Leistungsdaten hoch, um sie mit Hilfe einer externen Anwendung auszuwerten. Solche Handlungen erscheinen im hektischen Klinikalltag als nützliche Abkürzungen, sind aber in Wirklichkeit rechtlich hochriskant. Sobald personenbezogene Informationen und insbesondere Gesundheitsdaten unkontrolliert an externe Anbieter gelangen, geraten Ärztinnen und Ärzte ebenso wie die Krankenhausleitung in den Fokus von Strafrecht, Datenschutz und Berufsrecht.

Systeme, wie z.B. ChatGPT, Google Gemini oder Microsoft Copilot, arbeiten standardmäßig cloudbasiert. Das bedeutet, dass Daten nicht lokal in der Klinik verbleiben, sondern über das Internet an Server des Anbieters gesendet werden. Diese Server stehen häufig in den USA oder in anderen Drittländern. Bei frei zugänglichen KI-Diensten ist es für den Nutzer nicht überprüfbar, wie genau Daten verarbeitet, gespeichert oder weiterverwendet werden.

Selbst wenn Anbieter zusichern, Eingaben nicht für Trainingszwecke zu verwenden, fehlt in der Regel die volle Kontrolle über Speicherfristen, Zugriffsrechte oder Sicherheitsmaßnahmen. Einmal preisgegebene Daten lassen sich nicht mehr zurückholen. Anders als bei internen IT-Systemen gibt es keine Möglichkeit, alle Kopien, Backups oder Protokolle in fremden Infrastrukturen vollständig zu löschen. Damit ist jede Eingabe in ChatGPT & Co.  de facto irreversibel und dauerhaft mit einem Kontrollverlust verbunden.

 

Strafrechtliche Risiken: Schweigepflichtverletzung nach §203 StGB

Im Zentrum steht die ärztliche Schweigepflicht, die durch §203 StGB besonders geschützt ist. Dieser Paragraph stellt klar, dass sich strafbar macht, wer Patientengeheimnisse unbefugt offenbart:

(1) Wer unbefugt ein fremdes Geheimnis, namentlich ein zum persönlichen Lebensbereich gehörendes Geheimnis oder ein Betriebs- oder Geschäftsgeheimnis, offenbart, das ihm als

1. Arzt, Zahnarzt, Tierarzt, Apotheker oder Angehörigen eines anderen Heilberufs […] anvertraut worden oder sonst bekanntgeworden ist, wird mit Freiheitsstrafe bis zu einem Jahr oder mit Geldstrafe bestraft.

 

Schon die einmalige Eingabe identifizierbarer Daten in einen nicht abgesicherten Chatbot gilt rechtlich als solches „Offenbaren“. Damit wird deutlich, dass die Verwendung frei zugänglicher KI-Dienste im medizinischen Kontext keine harmlose Nebentätigkeit ist, sondern im schlimmsten Fall ein Straftatbestand. Hinzu kommen berufsrechtliche Folgen: Ärztekammern können Rügen oder strengere Maßnahmen verhängen, die im Extremfall bis zum Berufsverbot reichen.

 

DSGVO: Bußgelder drohen

Auch datenschutzrechtlich sind die Risiken enorm. Gesundheitsdaten zählen zu den besonders sensiblen Kategorien der Datenschutz-Grundverordnung. Ihre Verarbeitung ist nur unter strengen Voraussetzungen erlaubt. Liegt keine gültige Rechtsgrundlage vor, etwa eine Behandlung im Rahmen der Schweigepflicht, ist die Weitergabe an einen externen Anbieter grundsätzlich unzulässig. Ohne einen unterschriebenen Vertrag zur Auftragsverarbeitung,  stellt jede Nutzung einen gravierenden Verstoß dar. Besonders brisant wird es, wenn Daten in Drittländer übertragen werden. Erfolgt die Verarbeitung in den USA, müssen entweder das EU-US Data Privacy Framework greifen oder Standardvertragsklauseln samt zusätzlicher Sicherheitsmaßnahmen vorliegen. Fehlen diese Grundlagen, liegt ein klarer Verstoß gegen die DSGVO vor.

Die Folgen können empfindlich sein. Bei schweren Datenschutzverletzungen drohen Bußgelder von bis zu 20 Millionen Euro oder bis zu vier Prozent des weltweiten Jahresumsatzes. So wurde in 2018 gegen ein Krankenhaus in Den Haag im Zusammenhang mit einem Verstoß gegen die DSGVO ein Bußgeld in Höhe von 
€ 460.000 verhängt.

 

DSGVO: Immaterieller Schadensersatz

Betroffene können nach Art. 82 DSGVO immateriellen Schadensersatz geltend machen. 

ChatGPT:

Der Europäische Gerichtshof (EuGH) hat in mehreren Entscheidungen die Voraussetzungen für Schadensersatzansprüche nach der DSGVO konkretisiert. Eine von einigen nationalen Gerichten vertretene Erheblichkeitsschwelle hat er dabei ausdrücklich verworfen. Zugleich stellte der EuGH klar, dass nicht jeder Verstoß gegen die DSGVO automatisch einen Anspruch auf Schadensersatz nach Art. 82 begründet. Erforderlich ist vielmehr der Nachweis eines materiellen oder immateriellen Schadens, der kausal auf den Datenschutzverstoß zurückzuführen ist. Den Schadensbegriff legt der EuGH dabei aber weit aus: Ein spürbarer Nachteil ist nicht zwingend erforderlich, auch die bloße Sorge vor einem möglichen Missbrauch personenbezogener Daten oder der Verlust der Kontrolle über diese Daten kann bereits einen immateriellen Schaden darstellen und damit ersatzfähig sein.

 

Der EU AI Act: Neue Spielregeln für den KI-Einsatz

Seit August 2024 ist der EU AI Act in Kraft, seine Vorgaben werden jedoch schrittweise ab 2025 anwendbar. Für Krankenhäuser bringt er grundlegende Veränderungen mit sich. Seit 2. August 2025 haben Betreiber und Anbieter von KI-Lösungen bereits diverse Pflichten, die davon abhängig sind, welche Rolle das Krankenhaus bei einer konkreten KI-Lösung einnimmt und ob es sich um ein Hochrisiko-KI-System, ein KI-System mit besonderem Risiko oder ein System mit geringem Risiko handelt.
(Hierzu mehr in den Blogartikeln:
https://das-krankenhaus-der-zukunft.de/ki-im-krankenhaus-umsetzung-der-ki-verordnung-in-der-praxis-teil-1/
und
https://das-krankenhaus-der-zukunft.de/ki-im-krankenhaus-umsetzung-der-ki-verordnung-in-der-praxis-teil-2/)

 

Haftung der Geschäftsführung

Die Haftung der Geschäftsführung im Zusammenhang mit Schatten-KI im Krankenhaus ergibt sich vor allem aus Organisationsverschulden: Die Geschäftsführung ist verpflichtet, für eine rechtssichere Organisation des Betriebs zu sorgen, die den Schutz von Patientendaten, die Einhaltung der Schweigepflicht sowie die Vorgaben aus DSGVO und künftig dem EU AI Act gewährleistet.

Nach §43 GmbHG haften Geschäftsführer für Schäden, die durch Pflichtverletzungen entstehen. Die Geschäftsführer/innen müssen Schatten-KI aktiv verhindern, indem sie klare Policies erlassen, interne Schulungen organisieren, sichere Enterprise-Lösungen beschaffen und deren Nutzung überwachen.

Kommt es dazu, dass ein Krankenhaus Schadensersatz nach Art. 82 DSGVO leisten muss und/oder gegen das Krankenhaus Bußgelder verhängt werden, so kann im Innenverhältnis der Geschäftsführer regresspflichtig werden, wenn ihm mangelnde Organisation – aufgrund fehlender Policies, mangelnder Schulungen oder unzureichender technischer Maßnahmen – nachgewiesen wird, was im Ergebnis bedeutet, dass persönliche Haftung und damit erhebliche finanzielle Risiken drohen.

 

Handlungsperspektiven für Kliniken

Für Krankenhäuser bedeutet dies, dass sie schnellstens klare Strukturen schaffen müssen, um Schatten-KI zu verhindern. Nötig sind verbindliche KI-Richtlinien, die festlegen, welche Tools genutzt werden dürfen und welche nicht. Ebenso erforderlich sind KI-Lösungen, die die Anforderungen der DSGVO und des EU AI-Acts erfüllen.

Ein weiteres Element ist die Datenminimierung: Selbst bei freigegebenen Anwendungen sollten möglichst keine direkten Identifikatoren wie Namen oder Versicherungsnummern eingegeben werden. Ergänzend sind technische Schutzmaßnahmen, etwa Filter- und Kontrollsysteme, ebenso wichtig wie die systematische Schulung aller Mitarbeitenden im Umgang mit KI.

Schließlich müssen Datenschutz-Folgenabschätzungen und Grundrechtsprüfungen in die Routine integriert werden, damit neue Systeme vor ihrer Einführung rechtlich und ethisch abgesichert sind.

 

Fazit

Schatten-KI mag im hektischen Klinikalltag wie eine willkommene Abkürzung erscheinen. Tatsächlich aber stellt sie ein erhebliches Risiko dar, das von der Verletzung der Schweigepflicht über schwerwiegende Datenschutzverstöße bis hin zu hohen Bußgeldern reicht. Die Lösung besteht darin, klare Strukturen zu schaffen und den Einsatz von KI von Anfang an rechtssicher zu gestalten. Nur mit Lösungen, die rechtlich abgesichert sind, mit konsequenter Datenhygiene, verbindlichen Policies und regelmäßigen Schulungen kann KI im Krankenhaus verantwortungsvoll eingesetzt werden. So wird aus einem Risiko eine echte Chance – und aus der Schatten-KI eine Technologie im Krankenhaus der Zukunft.

Adam Pawelek
HC-Change Consulting



Veröffentlicht in Digitalisierung / Hospital 4.0, KI, KI-Praxis, Management und verschlagwortet mit , , , , , .