🌱 #DRANBLEIBEN (Denkanstoss)
#183: KI reflexiv statt reflektiert – warum der Druck nach hinten losgeht
Du liest #DRANBLEIBEN - Einordnungen zu Tech und Gesellschaft, von André Cramer. Ich bin Berater, Speaker und Podcast-Host von DRANBLEIBEN - Gespräche über unsere Zukunftsoptionen und Code & Konsequenz - Tech-Industrie Reflexionen. Lerne mehr über mich hier auf meiner Website, auf LinkedIn, Bluesky oder Mastodon!
Stell dir vor, du arbeitest als Berater. Du hilfst Unternehmen dabei, KI klug und souverän einzusetzen. Du weißt, dass diese Technologie enormes Potenzial hat. Du weißt aber auch, dass sie Risiken birgt, die viel zu viele Entscheider*innen nicht auf dem Schirm haben. Kognitive Effekte, die leise wirken. Verzerrungen, die sich einschleichen. Strukturen, die sich verschieben, ohne dass es jemand merkt.
Und dann sagt dir jemand, dem du vertraust, sinngemäß Folgendes:
„Ich finde deine Arbeit zu den Wirkungen von KI wirklich wichtig. Das müsste eigentlich jeder hören. Aber ich sage dir ganz ehrlich: In meinem beruflichen Umfeld hat man mit solchen Themen kaum eine Chance. Wer nicht hundert Prozent auf der Begeisterungswelle mitschwimmt – KI ist großartig, KI muss überall rein, KI ist die Zukunft –, der wird schnell als Bremser wahrgenommen. Der Druck ist enorm. Über Risiken, über Nebenwirkungen, über blinde Flecken traut sich schlicht niemand zu sprechen.“
Dieses Gespräch war kein Einzelfall. Ich höre Varianten davon seit längerer Zeit. Von Berater*innen, die wissen, dass sie Wirkungsfragen beim Kunden nicht stellen dürfen, weil dort nur kurzfristige Produktivitäts-KPIs zählen. Von Führungskräften, die intern auf kognitive Risiken hinweisen und dafür als technologiefeindlich abgestempelt werden. Von Menschen, die genau wissen, dass etwas schief läuft, aber schweigen, weil der Preis fürs Aussprechen zu hoch ist.
Und das Schweigen trifft auf eine Realität, die immer lauter wird. Und darüber möchte ich hier ein bisschen ausführlicher reden.
Der Druck
Was gerade in Unternehmen passiert, lässt sich in einem Satz zusammenfassen: Aus „Du solltest KI nutzen“ ist „Du musst KI nutzen - oder du gehst“ geworden. Innerhalb von nicht einmal zwei Jahren.
Accenture trackt die wöchentlichen KI-Logins seiner Führungskräfte und koppelt Beförderungen an die Nutzung. CEO Julie Sweet erklärte Investoren, man werde sich von Mitarbeitenden trennen, für die „Reskilling kein gangbarer Weg“ sei. Google macht KI-Nutzung erstmals zum Performance-Kriterium - nicht nur für Entwickler*innen, auch für Vertrieb und andere Rollen. Bei Meta fließen KI-Nutzungsmetriken in das neue Bewertungssystem ein. Microsoft erwartet von Mitarbeitenden, dass sie quantifizieren, wie sie KI in ihre Workflows integrieren. Salesforce misst Adoption „unablässig“, wie ein Vizepräsident es formulierte.
[Quellen: The Boss Has a Message: Use AI or You’re Fired (Wall Street Journal) - Tech Firms Aren’t Just Encouraging Their Workers to Use AI. They’re Enforcing It. (Wall Street Journal) - Accenture macht KI-Nutzung zur Bedingung für Beförderungen (Golem) - KI-Pflicht bei Google: Tech-Konzern macht in neuer Offensive KI zum Performance-Kriterium (Business Insider) - 1 in 6 workers pretend to use AI amid workplace pressures, survey finds (HR Drive) - Use AI or lose your job: How bosses are forcing the next workplace reset (MoneyControl) - Some employees feel so pressured to use AI, they’re pretending they are (Betanews)]
Besonders eindrücklich ist der Fall IgniteTech: Dort mussten Mitarbeitende 20 Prozent ihrer Wochenarbeitszeit für KI-Experimente aufwenden und sich anschließend selbst bewerten. Das Unternehmen ließ ChatGPT die Ergebnisse ranken und entließ die am schlechtesten Bewerteten. Darunter einen langjährigen Chief Product Officer, der die Methode kritisiert hatte.
Laut einer Erhebung von Section gaben im Oktober 2025 bereits 42 Prozent der Tech-Beschäftigten an, ihr direkter Vorgesetzter erwarte KI-Nutzung im Arbeitsalltag. Das ist ein Anstieg von 32 Prozent nur acht Monate zuvor. Eine breitere Umfrage unter über tausend US-Vollzeitbeschäftigten zeigte: 75 Prozent fühlen sich zur KI-Nutzung angehalten, offiziell oder inoffiziell. Jede*r Fünfte fühlt sich unter Druck, KI auch in Situationen einzusetzen, in denen er oder sie unsicher ist. Und jede*r Sechste gibt zu, KI-Nutzung vorzutäuschen, statt den Erwartungen offen zu widersprechen.
Jede*r Sechste täuscht KI-Nutzung vor. Was für ein kritisches Organisationssignal! Es sagt: Der Druck ist da. Die Kompetenz nicht. Die Überzeugung auch nicht. Und die Schulung? Ein Viertel der Betroffenen bekommt gar keine. Ein weiteres Viertel nur minimale.
Gleichzeitig zeigte im letzten Jahr ein vielzitierter MIT-Report: 95 Prozent der generativen KI-Pilotprojekte in Unternehmen scheitern. 95 Prozent. Der Druck wächst. Die Ergebnisse bleiben aus. Und in genau diesem Spannungsfeld zwischen „Es muss funktionieren“ und „Es funktioniert nicht“ entsteht etwas, das weit über ein HR-Problem hinausgeht.
Was KI mit unserem Denken macht
Ich beschäftige mich seit Monaten intensiv mit einer Frage, die in der KI-Debatte noch viel zu wenig Raum bekommt: Was macht KI eigentlich mit unserem Denken? Nicht mit unseren Prozessen. Mit unserem Denken.
Daraus sind in den letzten Wochen mehrere Texte, Vorträge und Sessions entstanden, in denen ich die Forschungslage aufgearbeitet und mit meinen eigenen Beobachtungen aus der Beratungspraxis verbunden habe. Wer du tiefer einsteigen willst, findest du dort die ausführlichen Analysen.
#DRANBLEIBEN 182: Der blinde KI-Fleck - Was, wenn plausibel das neue falsch wird?
#DRANBLEIBEN 181: Die atemberaubende KI-Gegenwart – und das Unbehagen, das sie begleitet
Um mit KI erfolgreich zu sein, müssen wir über Wirkung sprechen – nicht nur über Produktivität (in meinem beruflichen Umfeld im Blog von Lumen Partners)
KI & Wirkung: Was ist noch dein Gedanke – und was schon KI? (im Blog von Finde Zukunft)
Warum gute Führung im KI-Zeitalter mehr braucht als Tools & Prompts (Online Session im „Lunch & Learn” Stil am 20.3.)
Hier und jetzt konzentriere ich mich auf den Kern. Und darauf, was daraus folgt, wenn man ihn mit dem gerade beschriebenen Druck zusammendenkt.
Die Kurzfassung: KI beeinflusst uns zu großen Teilen unbewusst. Das ist kein Vorwurf, das ist ein Forschungsbefund. Eine Reihe gut dokumentierter kognitiver Effekte wirken zusammen, zum Beispiel:
Der Fluency Effect lässt uns flüssig formulierte Inhalte für glaubwürdiger halten, unabhängig vom Inhalt. KI produziert ausschließlich flüssige Sprache. Sie klingt nie unsicher, nie suchend, nie unfertig.
Anchoring und Framing setzen durch Reihenfolge, Tonalität und Gewichtung Referenzpunkte. Der erste KI-Vorschlag rahmt die gesamte Diskussion. Was danach kommt, ist häufig Variation um den Anker, selten echter Neustart.
Der Automation Bias führt dazu, dass wir Systemempfehlungen höher gewichten als das eigene Urteil. Besonders unter Zeitdruck.
Der Sycophancy-Effekt bedeutet: KI widerspricht selten. Sie spiegelt Überzeugungen, statt zu hinterfragen. Eine aktuelle Studie der Princeton University zeigt, wie drastisch das wirkt: Wenn KI zustimmend antwortet statt neutral, lagen die Entdeckungsraten neuer Zusammenhänge fünfmal niedriger.
(ich habe vor kurzem eine Shortvideo-Reihe zu einigen dieser Effekte gestartet, vielleicht magst du hier reinschauen: Fluency-Effect, Automation Bias, Sycophancy Effect, more to come…)
Im Zusammenspiel entsteht etwas, das sich als Plausibilitätsillusion bezeichnen lässt: KI-Output, der gleichzeitig sprachlich glatt, argumentativ geschlossen und bereits priorisiert ist, erzeugt einen Tiefe-Eindruck, auch bei dünner Substanz. Der Impuls, grundlegend zu hinterfragen, sinkt.
Und ein aktuelles Paper der Wharton School verschärft die Perspektive weiter: Selbst wenn die objektive Qualität der Ergebnisse sank, stieg das subjektive Selbstvertrauen der Teilnehmenden. Die Autoren nennen das Cognitive Surrender: kognitive Selbstaufgabe. Die Gefahr liegt nicht im Auslagern. Sie liegt im unbemerkten Übergang von Unterstützung zu Abhängigkeit.
Entscheidend ist dabei nicht der Einzelfall. Entscheidend ist die Eskalationslogik. Was einmal passiert, ist korrigierbar. Was tausendmal passiert, formt Gewohnheiten. Was zur Gewohnheit wird, wird nicht mehr hinterfragt. Heute übernehme ich die Empfehlung. Morgen prüfe ich weniger. Übermorgen bilde ich keinen eigenen Impuls mehr. Später kann ich es nicht mehr.
Der toxische Cocktail
Jetzt kommt der Punkt, an dem sich beide Stränge treffen. Und an dem etwas sichtbar wird, das ich für eine der am meisten unterschätzten Dynamiken der gegenwärtigen KI-Transformation halte.
Die Forschung zu kognitiven Biases zeigt seit Jahrzehnten: Zeitdruck, Angst, fehlende Schulung, Konformitätsdruck, das sind exakt die Bedingungen, unter denen menschliche Urteilskraft am stärksten erodiert. Automation Bias schlägt unter Zeitdruck besonders hart zu. Sycophancy-Effekte wirken am stärksten, wenn Menschen unsicher sind und Bestätigung suchen. Cognitive Offloading beschleunigt sich, wenn Reflexion nicht gefördert, sondern bestraft wird.
Und genau das ist die Situation, die der gegenwärtige KI-Druck erzeugt.
KI-Nutzung wird zur Pflicht. Wer nicht mitmacht, riskiert seine Karriere. Wer Wirkungsfragen stellt, gilt als Bremser. Die Schulung ist minimal oder nicht vorhanden. Der Druck, Ergebnisse zu zeigen, ist enorm. Und die Zeit, innezuhalten und zu prüfen, was man da eigentlich tut, gibt es nicht. Weil sie als unproduktiv gilt.
Die Ironie, die sich daraus ergibt, ist bitter:
Die Unternehmen, die KI-Nutzung am aggressivsten durchsetzen, produzieren systematisch die Bedingungen, unter denen KI am schlechtesten genutzt wird.
Mehr Druck erzeugt nicht mehr Kompetenz. Er erzeugt mehr Konformität. Mehr unreflektierte Übernahme. Mehr Schein-Nutzung. Und mehr Anfälligkeit für genau die kognitiven Verzerrungen, die souveränen KI-Einsatz unmöglich machen.
Der deutschstämmige Shopify-CEO Tobias Lütke hat 2025 in einer vielzitierten internen E-Mail „reflexive KI-Nutzung“ zur Grundanforderung für alle Mitarbeitenden erklärt. Das Wort ist verräterisch. Reflexiv heißt: automatisch, unbewusst, gewohnheitsmäßig. Das Gegenteil von dem, was souveräner KI-Einsatz braucht.
Was Organisationen brauchen, ist nicht reflexive, sondern reflektierte KI-Nutzung. Bewusst, prüfend, souverän. Eine Nutzung, die versteht, wie diese Technologie auf menschliches Denken wirkt. Und die genau deshalb in der Lage ist, ihre Stärken wirklich auszuschöpfen.
Was auf dem Spiel steht
Auf dem Spiel steht nicht Produktivität. Auf dem Spiel steht genau das, wofür Unternehmen KI eigentlich einsetzen wollen: Urteilskraft, Differenzierung, Innovationsfähigkeit.
Die Kette ist kurz und klar: KI arbeitet mit Wahrscheinlichkeit. Wahrscheinlichkeit begünstigt das Erwartbare. Das Erwartbare erzeugt Konvergenz. Konvergenz reduziert Differenzierung. Algorithmisch unterstütztes Mittelmaß wird zur Norm. Nicht weil es verordnet wird, sondern weil es automatisch als Nebenprodukt gut begründeter KI-vorstrukturierter Entscheidungen entsteht.
Die Vergangenheit hat gezeigt, Strategische Wendepunkte entstehen nicht aus dem statistisch Naheliegenden. Sie entstehen aus Irritation, Perspektivwechsel, Dissens. Kodak hatte alle Informationen, um die Digitalkamera als Zukunft zu erkennen. Aber die Entscheidungsarchitektur hatte keinen Ort für das Unplausible. Toyota baute genau diesen Ort: ein System, in dem Widerspruch nicht Störung war, sondern Absicht. [Wer diese Beispiele vertiefen will: mehr dazu in #DRANBLEIBEN Ausgabe #182]
Wer Dissens strukturell entmutigt – und genau das tut der gegenwärtige KI-Druck –, verliert die Fähigkeit, die in Zeiten radikaler Umbrüche überlebenswichtig ist: anders zu entscheiden als naheliegend. Nicht seltener, nicht langsamer. Anders.
Was anders gehen muss
Der Schlüssel zum Erfolg mit KI ist nicht mehr Druck. In welcher Welt, in welchem Management-Denken kann sowas in 2026 eigentlich wirklich gedacht werden? Der Schlüssel ist mehr Bewusstsein. Nicht weniger KI, sondern bessere KI-Kompetenz. Souveräne KI-Nutzung heißt: mehr Wissen über KI-Wirkung, bewusstere Integration, mehr eigenes Denken. Bessere Verzahnung mit der KI.
Das beginnt bei der Erkenntnis, dass KI-Einführung nicht nur eine Anwendungsfrage ist, sondern auch eine Wirkungsfrage. Wer nur die Produktivitätsebene adressiert, übersieht, was mit Entscheidungslogiken, Teamdynamiken und Organisationskultur passiert. Wer beides zusammendenkt – Anwendung und Wirkung –, gestaltet Souveränität.
Es geht weiter mit der Architektur von Dissens. Widerspruch darf nicht darauf angewiesen sein, dass einzelne Mutige sich exponieren. Er muss beauftragt werden, als fester Bestandteil von Entscheidungsprozessen. Die Rolle des Advocatus Diaboli ist kein Planspiel. Sie ist ein Schutzmechanismus gegen Konvergenz. Auf der Prozessebene: Beginnt eine Entscheidung mit einem KI-Output oder mit einer eigenen Hypothese? Auf der Rollenebene: Gibt es explizite Gegenpositionen – und darf jemand widersprechen, ohne Sanktion? Auf der Kulturebene: Wird Irritation als Störung gelesen oder als Ressource?
Und es erfordert eine Neubewertung von Reflexion. Wer Reflexion als Bremse behandelt, investiert in Blindheit. Die bittere Ironie aus meiner Sicht: Genau die Unternehmen, die „keine Zeit für Reflexion“ haben, sind diejenigen, die sie am dringendsten brauchen. Die nächste entscheidende Investitionswelle ist nicht technologisch. Sie ist menschlich. In Urteilskraft, in Führung, in die Fähigkeit, bewusst vom Plausiblen abzuweichen.
(Mehr dazu, wie das aussehen kann, in meinem beruflichen Blogbeitrag „Um mit KI erfolgreich zu sein, müssen wir über Wirkung sprechen – nicht nur über Produktivität“ – und in einer Lunch & Learn Session zum Thema am 20. März - sei kostenlos dabei!)
#DRANBLEIBEN ist für dich kostenlos, für mich steckt da aber jede Menge Arbeit und Herzblut drin. Wenn du Lust hast, mich dabei ein bisschen zu unterstützen: Ich freue mich über jeden Support. Den kannst du z.B. über ein freiwilliges kostenpflichtiges Abo geben oder über eine kleine Spende für einen Kaffee.
Was bleibt
Ich sage all das als jemand, dem KI aufrichtig am Herzen liegt. Ich arbeite jeden Tag damit. Selbst und auch mit Kunden. Ich sehe, was möglich ist. Ich erlebe täglich, wie diese Technologie Denkräume öffnet, die vorher verschlossen waren.
Aber ich sehe auch, was passiert, wenn der Druck das Denken ersetzt. Wenn aus Begeisterung Zwang wird. Wenn aus „wir nutzen KI“ ein „du musst KI nutzen – und komm bloß nicht mit kritischen Fragen“ wird. Dann geht genau das verloren, was KI erst wertvoll macht: wenn sie mit reifer menschlicher Urteilskraft kombiniert ist, die weiß, wann sie der Maschine folgt – und wann sie es bewusst nicht tut.
Die Frage in diesen Tagen ist nicht: Nutzt du KI? Die Frage ist: Nutzt du sie so, dass sie dir nützt und nicht schadet?
Reflexiv ist nicht reflektiert. Und der Unterschied entscheidet darüber, ob KI uns stärker macht. Oder dümmer und mittelmäßiger.
Mach’ da nicht mit. Bleib’ dran!
P.S. Weil ein Teil des Gesprächs so gut in diesen Themenkomplex passt, empfehle ich dir noch die Jung & Naiv Podcast-Folge mit der Philosophin Eva von Redecker. Ab ca. Minute 1:11:00 spricht sie mit Thilo Jung über KI und malt ein Szenario von „Automatisierter Gedankenlosigkeit” aus.
Und noch was Positives… weil mich dieses Video in dieser Woche immer wieder beim Arbeiten und Schreiben begleitet hat. Mein Guilty Pleasure sind Synthwave Vaporware Videos… gerne mit Retro-Videomaterial. Hier sind alte 80er Jahre Aufnahmen von Fahrten durch San Francisco dabei… hat mich voll „gecatched”. Vielleicht, weil es näher an dem San Francisco ist, in dem ich mal gelebt habe, als an dem von heute… von wo aus gerade reflexive KI-Nutzung in den Rest der Welt schappt.
Das war es für heute. Bitte leite oder empfehle den Newsletter doch gerne weiter ➡️ ✉️ - das würde mir sehr helfen. Danke dir für die Aufmerksamkeit und bis zum nächsten Mal!





