Warum KI keine Frage der IT ist, sondern der Unternehmenskultur und Werte

Warum KI keine Frage der IT ist?

Künstliche Intelligenz wird in vielen Organisationen oft noch immer als technisches Thema behandelt. Zuständig ist dann die IT, ergänzt um Datenschutz und Informationssicherheit.

Diese Einordnung wirkt auf den ersten Blick logisch, greift jedoch zu kurz. Wer KI allein als Softwareeinführung versteht, unterschätzt ihre eigentliche Wirkung. Denn KI verändert nicht nur Abläufe, sondern Entscheidungen, Verantwortlichkeiten und damit letztlich die Kultur einer Organisation. Im Kern geht es bei KI nicht nur um Technologie, sondern um die Frage, welche Entscheidungen künftig von Menschen getroffen werden und welche von Systemen vorbereitet oder sogar ersetzt werden (sollen). Diese Entscheidung kann nicht delegiert werden. Sie berührt grundlegende Werte einer Organisation und damit die Art und Weise, wie Verantwortung verstanden und gelebt wird.

KI verändert Entscheidungen – nicht Verantwortung

Jede Form von KI verändert, wie Entscheidungen zustande kommen. Was früher auf Erfahrung, Fachwissen, individueller Abwägung oder einfach auf „Bauchgefühl“ beruhte, wird zunehmend durch Datenanalysen und algorithmische Vorschläge ergänzt oder sogar ersetzt.

Entscheidungen entstehen damit in einem anderen Kontext. Sie wirken objektiver, nachvollziehbarer und oft auch schneller. Die Verantwortung für diese Entscheidungen bleibt jedoch vollständig beim Menschen. Kein Algorithmus kann Verantwortung übernehmen, keine Software kann haftbar gemacht werden – so auch die KI nicht. Wer sich auf KI stützt, trifft dennoch selbst die Entscheidung – auch dann, wenn diese stark durch ein System beeinflusst wurde. Genau hier liegt die eigentliche Herausforderung. Denn je stärker sich Menschen auf KI verlassen, desto größer wird die Gefahr, Entscheidungen nicht mehr kritisch zu hinterfragen. Die Verantwortung wird dann nicht mehr bewusst wahrgenommen, obwohl sie da ist. „Das hat die KI so entschieden“ ist kein Argument – weder vor Kunden oder Patienten, noch vor Gericht.

Der entscheidende Perspektivwechsel

In vielen Organisationen dominiert eine technische Fragestellung. Es wird danach gefragt, was automatisiert werden kann. Diese Perspektive führt fast zwangsläufig dazu, dass Möglichkeiten ausgeschöpft werden, ohne ihre Folgen ausreichend zu reflektieren. Es wird z.B. eine KI-Telefonassistentin eingeführt ohne tiefere Gedanken darüber, was sie sagen darf und was nicht. Fehlende Gedanken führen zum unvollständigen Systemprompt bei der KI-Assistentin, die dann ggf. Aussagen macht, die die Organisation gar nicht machen wollte oder durfte. Die KI-Telefonassistentin wird einfach per Schnittstelle an lokale IT-Systeme angebunden, damit sie von dort Informationen übernimmt oder dort speichert. Allein dieser Schritt kann- wenn nicht gründlich überlegt und organisatorisch und technisch abgesichert – für die Organisation zu einem GAU werden. Denn wenn die KI-Assistentin Zugriff auf Geschäftsgeheimnisse, Kunden-/Patientendaten hat, dann kann sie sie auch „ausplappern“.

Die entscheidende Frage darf daher nicht lauten, was technisch möglich ist, sondern was verantwortbar ist. Jede Automatisierung ist letztlich auch eine Entscheidung darüber, wie viel Einfluss ein System auf menschliche Entscheidungen erhalten soll. Diese Entscheidung ist keine technische, sondern eine normative.

Was automatisiert werden kann…

Dort, wo Prozesse klar strukturiert, wiederholbar und datenbasiert sind, kann KI erhebliche Vorteile bringen. Das betrifft insbesondere Tätigkeiten, die sich durch klare Regeln beschreiben lassen und bei denen der Interpretationsspielraum gering ist. Die Analyse von Dokumenten, die Strukturierung großer Datenmengen oder die Vorverarbeitung von Informationen sind typische Beispiele. In solchen Fällen übernimmt KI keine eigentliche Entscheidung, sondern unterstützt lediglich die Vorbereitung. Auch bei komplexeren Fragestellungen kann KI sinnvoll eingesetzt werden, solange sie als Unterstützung verstanden wird. Sie kann große Datenmengen auswerten, Muster erkennen und Entscheidungsoptionen aufzeigen. Der entscheidende Punkt ist, dass die Bewertung und die finale Entscheidung beim Menschen verbleiben. KI erweitert die Entscheidungsbasis, ersetzt aber nicht die Verantwortung. Richtig eingesetzt stärkt KI damit die Rolle des Menschen.

Was niemals automatisiert werden darf?

Kritisch wird es dort, wo Entscheidungen eine ethische Dimension haben oder unmittelbare Auswirkungen auf Menschen entfalten. Entscheidungen über Einstellungen, Leistungen oder Sanktionen dürfen nicht an Systeme delegiert werden. KI kann Wahrscheinlichkeiten berechnen, aber keine Verantwortung tragen. Sie kann Muster erkennen, aber keine normative Abwägung vornehmen.

Besonders im öffentlichen Bereich ist diese Grenze von zentraler Bedeutung. Verwaltung, Vergabestellen, Ärzte etc. sind verpflichtet, Entscheidungen im Einzelfall zu treffen und nachvollziehbar zu begründen. Ermessen ist dabei kein Fehler, sondern ein bewusstes Element der getroffenen Entscheidung. Es stellt sicher, dass individuelle Besonderheiten berücksichtigt werden. Eine KI kann diese Form der Abwägung nicht leisten.

Auch die letztverantwortliche Entscheidung darf niemals automatisiert werden. Entscheidungen müssen immer einem Menschen zugeordnet werden können, denn Verantwortlichkeit setzt Zurechenbarkeit voraus.

Kann KI Entscheidungen „manipulieren“?

KI beeinflusst, welche Informationen sichtbar werden, wie Optionen dargestellt werden und welche Entscheidungen plausibel erscheinen. Sie wirkt damit direkt auf den Entscheidungsprozess ein.

Das Risiko einer systematischen Verzerrung in Wahrnehmung, Bewertung oder Entscheidung (sog. Bias-Risiko) liegt nicht nur in den Daten oder im KI-Modell, sondern entsteht auch im Kopf der Menschen, die mit der KI arbeiten.

Die KI beeinflusst nicht nur die Ergebnisse, sondern auch die Wahrnehmung und die Bewertung durch Menschen. Durch diese Rückkopplung kann sie systematisch Denkfehler beim Menschen verstärken oder sogar neue erzeugen.

Ein zentraler Mechanismus ist der sogenannte Automationsbias. Viele Menschen neigen dazu, Vorschlägen von Systemen mehr Vertrauen zu schenken als ihrer eigenen Einschätzung. Wenn eine KI eine Antwort liefert, wirkt sie oft objektiv, neutral und datenbasiert. Diese Wahrnehmung führt dazu, dass Entscheidungen weniger kritisch hinterfragt werden. Der Mensch trifft die Entscheidung zwar formal selbst, orientiert sich aber stark am Vorschlag der KI.

Ein weiterer Effekt ist der Ankereffekt. Die erste Information, die präsentiert wird, beeinflusst die spätere Bewertung. Wenn eine KI eine bestimmte Einschätzung vorgibt, wird diese unbewusst zum Referenzpunkt. Selbst wenn der Mensch die Entscheidung überprüft, bleibt die ursprüngliche Richtung oft bestehen. Das führt dazu, dass Alternativen weniger ernsthaft geprüft werden.

Hinzu kommt der sogenannte Bestätigungsbias. KI-Systeme liefern häufig Ergebnisse, die plausibel erscheinen und gut formuliert sind. Menschen neigen oft dann dazu, diese Ergebnisse als Bestätigung ihrer eigenen Sichtweise zu interpretieren, selbst wenn sie inhaltlich schwach oder einseitig sind. Die KI wird dann nicht mehr als Werkzeug genutzt, sondern als Verstärker bestehender Überzeugungen.

KI ist doch immer objektiv, oder?

Ein besonders kritischer Punkt ist die scheinbare Objektivität von KI. Da Entscheidungen auf Daten beruhen, entsteht der Eindruck von Neutralität. Tatsächlich spiegeln diese Daten jedoch immer auch historische Entscheidungen und bestehende Ungleichgewichte wider. Wenn Menschen diese Ergebnisse ungeprüft übernehmen, verstärken sie vorhandene Verzerrungen, ohne sie als solche zu erkennen. In der Praxis entsteht dadurch eine gefährliche Kombination. Die KI liefert einen Vorschlag, der plausibel wirkt. Der Mensch vertraut diesem Vorschlag, prüft ihn weniger intensiv und übernimmt ihn mit hoher Wahrscheinlichkeit. Die Verantwortung bleibt zwar beim Menschen, die Entscheidung ist jedoch stark durch das System geprägt.

Fazit

Künstliche Intelligenz verändert Organisationen nicht nur durch Technik, sondern durch die Art, wie Entscheidungen vorbereitet und getroffen werden. Die Verantwortung bleibt dabei immer beim Menschen. Gerade deshalb ist es entscheidend, bewusst festzulegen, wo KI unterstützen darf und wo nicht. KI ist damit keine reine IT-Frage. Sie ist eine Frage von Haltung, Verantwortung und Unternehmenskultur. Organisationen, die das erkennen, behalten die Kontrolle über ihre Entscheidungen. Organisationen, die es ignorieren, laufen Gefahr, Entscheidungen zu treffen, deren Grundlagen sie selbst nicht mehr vollständig verstehen.

Adam Pawelek
projectontime.de

Das Bild wurde durch KI erstellt.

Veröffentlicht in Change-Management, Digitalisierung / Hospital 4.0, KI, KI-Praxis, KI-Transformation, Management und verschlagwortet mit , , , .