đŻ #DRANBLEIBEN (Deep-Dive)
#189: Warum bei KI nicht sein darf, was bei jeder anderen Technologie selbstverstÀndlich wÀre
Du liest #DRANBLEIBEN - Einordnungen zu Tech und Gesellschaft, von AndrĂ© Cramer. Ich bin Berater, Speaker und Podcast-Host von DRANBLEIBEN - GesprĂ€che ĂŒber unsere Zukunftsoptionen und Code & Konsequenz - Tech-Industrie Reflexionen. Lerne mehr ĂŒber mich hier auf meiner Website, auf LinkedIn, Bluesky oder Mastodon!
Ăber die Kraft einer ErzĂ€hlung, die den ehrlichen Blick auf eine wirkmĂ€chtige Technologie verhindert
Vor einigen Wochen sprach ich mit einer Learning-&-Development-Verantwortlichen eines groĂen Unternehmens. Es ging um ein Training zum Thema KI-Kompetenz. Ich sprach ĂŒber meine Themenschwerpunkte und einen möglichen roten Faden: AnwendungsfĂ€lle, Chancen, Potenziale. Aber eben auch Wirkungen. Was passiert mit EntscheidungsqualitĂ€t, wenn KI-generierte Vorlagen den Rahmen setzen? Was verĂ€ndert sich in Teams, wenn Arbeit zunehmend delegiert statt durchdacht wird? Was macht es mit einer Organisation, wenn Geschwindigkeit zur LeitwĂ€hrung wird und Reflexion zur Bremse?
Bei den ersten Themen nickte sie. Bei den letzteren wurde es stiller. Nicht völlig ablehnend, aber klar erkennbar vorsichtig. Dann kam ein Satz, der mich seitdem begleitet: âDas ist alles sehr relevant. Aber wir haben gerade einen groĂen ChatGPT-Enterprise-Deal abgeschlossen. Die GeschĂ€ftsfĂŒhrung will Tempo. Das ist vielleicht nicht der richtige Moment, um ĂŒber Nebenwirkungen zu sprechen.â
Nicht der richtige Moment.
Solche GesprĂ€che fĂŒhre ich regelmĂ€Ăig. Mit Berater*innen, die wissen, dass sie Wirkungsfragen beim Kunden nicht stellen können, weil dort vor allem kurzfristige ProduktivitĂ€ts-KPIs zĂ€hlen. Mit FĂŒhrungskrĂ€ften, die intern auf kognitive und soziale Herausforderungen hinweisen und dafĂŒr als technologiefeindlich eingeordnet werden. Mit Menschen, die nach VortrĂ€gen leiser sprechen als nötig und sagen: âBei uns sollte man so etwas besser nicht laut sagen. Der KI-EinfĂŒhrungszug fĂ€hrt. Wer Fragen stellt, steht auf dem falschen Bahnsteig.â
Und dann erlebe ich das Gegenteil. In Trainingssessions, in Coachings, in kleineren Runden mit geschĂŒtztem Rahmen. Ich lege dieselben Themen auf den Tisch. Und was passiert? Offenheit und Erleichterung. FĂŒhrungskrĂ€fte, die sagen: âEndlich spricht das mal jemand an.â Menschen, die seit Monaten ein Unbehagen tragen, das sie nirgends loswerden. Die KI nutzen, weil sie wollen, aber auch, weil es erwartet wird. Und die gleichzeitig merken, dass ihre Arbeit gleichzeitig anspruchsvoller und dĂŒnner wird. Dass Meetings glatter laufen, aber weniger Substanz haben. Dass Entscheidungsvorlagen besser aussehen, aber weniger durchdacht sind.
Die Erfahrung ist also nicht, dass Menschen kein Interesse an diesen Fragen hĂ€tten. Ganz im Gegenteil. Die Erfahrung ist, dass der Raum dafĂŒr in vielen Organisationen nicht existiert oder nicht existieren soll. Und mich beschĂ€ftigt die Frage, warum das so ist.
Die ErzĂ€hlung, die den Raum schlieĂt
Um zu verstehen, warum in vielen Unternehmen ein ehrlicher Rundumblick auf KI so schwer fĂ€llt, muss man die ErzĂ€hlung verstehen, die ihn verhindert. Denn die ZurĂŒckhaltung, die ich erlebe, hat selten mit einzelnen Personen zu tun. Sie hat mit einem Klima zu tun. Und dieses Klima wird von einer ErzĂ€hlung erzeugt, die seit zwei, drei Jahren immer dichter, immer lauter und immer alternativloser geworden ist.
Man kann diese ErzÀhlung als semantische Eskalation beschreiben, die mehrere Stufen hat.
2022 war KI eine faszinierende Technologie. ChatGPT war ein Moment des Staunens. 2023 wurde KI zum ProduktivitĂ€tshebel. Copiloten, Effizienzversprechen, Augmentation. 2024 verschob sich der Ton: âAdopt or fall behind.â Die ersten AI-first-Memos tauchten auf, Leadership-Druck wurde spĂŒrbar, KI-Nutzung wurde in Unternehmen zur Basiserwartung. 2025 kam das Wettbewerbs- und SouverĂ€nitĂ€tsframing. Die EU-Kommission veröffentlichte ihren âAI Continent Action Planâ, um Europa zum âleading AI continentâ zu machen, flankiert von der InvestAI-Initiative, die 200 Milliarden Euro an KI-Investitionen mobilisieren soll. Und 2026? KI ist Infrastruktur. âAI is no longer a single breakthrough or application, it is essential infrastructure. Every company will use it. Every nation will build itâ, sagte Jensen Huang von NVIDIA zur Eröffnung der GTC 2026. KI als Betriebssystem, als Organisationsmodell, als FĂŒhrungsmandat.
Was hier passiert ist, lĂ€sst sich kompakt zusammenfassen: Aus âSollen wir?â wurde âWie schnell schaffen wir es?â. Die Frage, ob KI sinnvoll ist, wo sie sinnvoll ist, unter welchen Bedingungen und mit welchen Voraussetzungen und Bedingungen, ist aus dem Zentrum der Debatte verschwunden. Beantwortet wurde sie nicht, zumindest nicht auf breiter Ebene und auch nicht in der Tiefe. Stattdessen wurde sie von einer ErzĂ€hlung ĂŒberrollt.
Und diese ErzÀhlung hat konkrete Produzenten.
Am Anfang der Kette stehen die Frontier-Modell-Hersteller und Chip-Produzenten. NVIDIA rahmte KI als industrielle Revolution, als Versorgungsinfrastruktur, als etwas, das jede Nation und jedes Unternehmen braucht. Das ist natĂŒrlich keine neutrale Marktbeobachtung. Es ist ein rhetorisches Programm, das Adoption aus der SphĂ€re der Entscheidung in die SphĂ€re der Notwendigkeit hebt. Im MĂ€rz forderte NVIDIA-CEO Jensen Huang, dass Unternehmen ihren Engineers zusĂ€tzlich zum Gehalt KI-Token im Wert der HĂ€lfte ihres Jahresgehalts gewĂ€hren sollten.
Beratungsunternehmen ĂŒbersetzen diesen Ton in Managementsprache. Eine Accenture-Studie von Juni 2025 koppelt KI direkt an Europas ProduktivitĂ€tsrĂŒckstand und beziffert ein ungenutztes Potenzial von 200 Milliarden Euro jĂ€hrlich. KI wird hier zum âentscheidenden Wettbewerbsfaktorâ fĂŒr europĂ€ische Unternehmen. McKinseys âSuperagencyâ-Report von Januar 2025 formuliert es noch zugespitzter. Die Mitarbeitenden seien bereit, âthe biggest barrier to success is leadership.â Solche SĂ€tze verlagern Verantwortung. Sie sagen: Wer bremst, fĂŒhrt schlecht. Und sie sorgen dafĂŒr, dass jede differenzierte Position als FĂŒhrungsschwĂ€che lesbar wird.
Boards und VorstĂ€nde institutionalisieren den Druck. Eine BCG-Studie von Mai 2026, die CEOs und Board-Mitglieder befragte, ergab: 61 Prozent der CEOs sagen, ihre Boards drĂ€ngten zu schnell bei der KI-Transformation. 35 Prozent sagen, ihre Boards ĂŒberschĂ€tzten, was KI menschlich ersetzen könne. Und mehr als die HĂ€lfte der CEOs gibt an, der KI-Hype verzerre das Urteilsvermögen im Boardroom. Der Druck kommt also nicht nur von auĂen. Er kommt aus den Governance-Strukturen selbst.
Und HR macht ihn operativ. Shopifys CEO erklĂ€rte letztes Jahr âreflexive KI-Nutzungâ zur Grundanforderung fĂŒr alle Mitarbeitenden (siehe auch #DRANBLEIBEN Ausgabe #183). Teams mĂŒssen vor zusĂ€tzlichem Headcount zeigen, warum KI den Job nicht erledigen kann. Klarna kommunizierte öffentlich, der eigene KI-Assistent leiste Arbeit im Umfang von 700 BeschĂ€ftigten (das schlug aber bösâ zurĂŒck). Was als Effizienzmeldung daherkommt, ist ein kulturelles Signal: Wer nicht mitmacht, ist ersetzbar.
Das Wall Street Journal berichtete im Februar 2026, dass Tech-Firmen KI-Nutzung nicht mehr nur fördern, sondern durchsetzen, mit Macht.
Performance-Reviews und Beförderungen hÀngen zunehmend von KI-Kompetenz ab.
Dashboards tracken die Nutzung. Bei Meta konkurrieren Mitarbeitende auf internen Leaderboards um Token-Verbrauch.
Hiring ohne nachgewiesene AI-Fluency wird schwieriger. Das geht weit ĂŒber Ermutigung hinaus. Das ist knallharte Messung, Bewertung, Sanktion.
Hinter all dem steht eine GrunderzĂ€hlung, die ich in Unternehmen immer wieder spĂŒre, auch wenn sie selten so offen formuliert wird. Ich setze das mal so:
đ» Die Gegenwart ist schlecht. Herausfordernd, unsicher, unter Druck.
đą Was gut sein soll, ist die Zukunft.
đą Und der Weg dorthin fĂŒhrt ĂŒber KI.
KI ist die BrĂŒcke von einer schwierigen Gegenwart đ» in eine wettbewerbsfĂ€hige Zukunft đą. Und wenn KI die BrĂŒcke ist, dann darf ihr kein Makel anhĂ€ngen. Dann dĂŒrfen Nebenwirkungen nicht auf den Tisch. Dann stört jede differenzierte Frage den Aufbruch.
VerstĂ€rkt wird das durch eine politische Dimension. Die groĂen Tech-Akteure arbeiten aktiv daran, regulatorische Rahmen zu schwĂ€chen, die Reflexion erzwingen könnten. Ganz frisch, Anfang Mai 2026 forderten die CEOs von sieben europĂ€ischen Tech-Konzernen, darunter SAP und Siemens, in einem gemeinsamen Meinungsbeitrag vereinfachte KI-Regeln. Ihr Argument: âMore than three years after the âChatGPT momentâ, Europe is still debating regulation, while others have long shifted focus to scaling AI.â Das ist die europĂ€ische Ăbersetzung des fragwĂŒrdigen Race-Narrativs (siehe #DRANBLEIBEN Ausgabe #187). Und es hat ein gefĂ€hrliches Nebenprodukt. Es setzt ein Ăquivalent, das weit ĂŒber Politik hinausreicht.
Regulierung đ» = Reflexion đ» = Bremse đ» = schlecht đ»
Wenn das auf der Makroebene als Konsens gilt, wird auf der Mikroebene âNachdenken bremst Umsetzungâ plausibel.
Es gibt einen Satz, den ich neulich im Brand Eins Podcast hörte, im Kontext von Plattform-Business und toxischen Dynamiken in der Technologiebranche. Der Satz lautete sinngemĂ€Ă: âDer Philosoph stört.â Er meinte damit nicht Philosophie als akademische Disziplin. Er meinte den Typus des Denkens, der Kontext verlangt, Ambivalenz zulĂ€sst, KomplexitĂ€t nicht als Defizit behandelt und nicht sofort auf Lösung und Skalierung drĂ€ngt.
Genau dieses Denken ist es, das in der gegenwÀrtigen KI-Debatte in Unternehmen an den Rand gedrÀngt wird. Nicht völlig verboten, aber entwertet.
Die erlaubte Kritik und die unerlaubte
Das heiĂt nicht, dass KI-Kritik generell tabu wĂ€re. Es gibt eine öffentliche Debatte ĂŒber Risiken. Stromverbrauch, Bias, Halluzinationen, Datenschutz, Machtkonzentration, you name it. Diese Themen sind gesellschaftlich angekommen. In vielen Unternehmen werden sie (zumindest teilweise) adressiert, in Governance-Papieren, Ethik-Boards und Compliance-Strukturen.
Aber diese Kritik hat eine Eigenschaft, die sie vertrĂ€glich macht. Sie ist technisch und extern. Sie handelt von der Maschine. Sie lĂ€sst sich in Prozesse auslagern. Sie stört die ProduktivitĂ€tserzĂ€hlung nicht grundsĂ€tzlich, weil sie als lösbar gerahmt wird. Gegenbewegungen zu Bias kann man irgendwie trainieren. Halluzinationen werden ja besser. Energiefragen sind Infrastrukturfragen. Diese Kritik wird auf einer NebenbĂŒhne verhandelt, wĂ€hrend auf der HauptbĂŒhne Wachstum, Geschwindigkeit und Transformation gespielt werden.
Was kaum vorkommt, ist die andere Ebene. Die Frage, was KI mit den Menschen macht, die sie nutzen. Was mit Denkprozessen passiert, wenn der erste Entwurf immer von der Maschine kommt. Was mit EntscheidungsqualitĂ€t geschieht, wenn plausibel klingende Vorlagen den Rahmen setzen, bevor ein Mensch ĂŒberhaupt nachgedacht hat. Was mit der ArbeitsidentitĂ€t von Fachleuten passiert, wenn ihre Expertise zunehmend durch KI-generierte OberflĂ€chen ersetzt wird. Was Work Slop bedeutet, wenn Arbeitsergebnisse zwar professionell aussehen, aber keine Tiefe mehr haben und oft genug purer Quatsch sind. Was Work Creep auslöst, wenn KI Arbeit abnimmt, aber keine Entlastung entsteht, weil die frei werdende KapazitĂ€t stillschweigend sofort wieder mit neuen Aufgaben gefĂŒllt wird. Was Cognitive Density bedeutet, wenn dadurch nicht weniger gedacht werden muss, in derselben Zeit aber mehr, komplexere und folgenreichere Denkarbeit im Kopf landet. Was mit der Kultur eines Teams geschieht, wenn Konsens nicht mehr erarbeitet, sondern von einer Maschine vorproduziert wird. Und wenn mehr mit Maschinen gesprochen wird als mit Menschen.
Das sind keine Randthemen. Aber sie werden wie Randthemen behandelt. Weil sie unbequem sind. Weil sie die ErzĂ€hlung stören. Und weil sie etwas berĂŒhren, das viel schwerer wiegt als ein technisches Problem. Sie berĂŒhren die Frage, ob eine Organisation, die KI in ihre Kernprozesse einbaut, noch die Kontrolle darĂŒber hat, was dabei mit ihrer Urteilskraft, ihrer EntscheidungsfĂ€higkeit und ihrer IntegritĂ€t passiert.
Der Kreislauf
In frĂŒheren Ausgaben von #DRANBLEIBEN habe ich beschrieben, wie KI auf unser menschliches Denken wirkt. Wie aus einzelnen Effekten ein Zusammenspiel entsteht, das sich als PlausibilitĂ€tsillusion beschreiben lĂ€sst. Und wie Unternehmen, die KI-Nutzung am aggressivsten durchsetzen, systematisch die Bedingungen produzieren, unter denen KI am problematischsten genutzt wird. (Wenn du nochmal tiefer einsteigen willst: #182 und #183 behandeln das ausfĂŒhrlich.)
Was dieser Deep-Dive hier ergĂ€nzt, ist die Ebene davor. Die Frage, woher der Druck kommt. Und die Antwort ist, dass er aus der ErzĂ€hlung kommt, die ich gerade beschrieben habe. Aus der semantischen Eskalation von âinteressantâ zu âunvermeidbarâ. Aus dem Zusammenspiel von Chip-Firmen, Beratungen, Boards und HR. Aus der kulturellen Abwertung von Reflexion und der politischen Delegitimierung von Regulierung.
Das Ergebnis ist ein Kreislauf:
âĄïž Die Unvermeidbarkeitsrhetorik erzeugt organisatorischen Druck.
âĄïž Dieser Druck erzeugt Zeitnot, KonformitĂ€t und fehlende ReflexionsrĂ€ume.
âĄïž Unter diesen Bedingungen greifen kognitive Effekte am stĂ€rksten.
âĄïž Unkritische Nutzung produziert Ergebnisse, die vorzeigbar sind, aber nicht geprĂŒft.
âĄïž Diese Ergebnisse bestĂ€tigen das Narrativ: KI funktioniert, die Sache lĂ€uft, weiter so.
đ Der Kreis schlieĂt sich.
Kein Medikament kommt ohne Beipackzettel auf den Markt. Kein Werkstoff wird in einen Produktionsprozess eingespeist, ohne dass jemand prĂŒft, was er mit dem Endprodukt macht. Kein* Ingenieur*in wĂŒrde ein Verfahren einsetzen, das er oder sie nicht versteht. Bei KI passiert genau das, tĂ€glich. Und der Grund dafĂŒr ist, dass eine ErzĂ€hlung mĂ€chtiger geworden ist als die Sorgfalt, die Unternehmen bisher und eigentlich an sich selbst stellen.
Was auf dem Spiel steht
Was gefÀhrdet wird, lÀsst sich sehr konkret benennen. Es sind die Standards, die jedes ernsthaft wirtschaftende Unternehmen als nicht verhandelbar betrachtet. Nur dass sie bei KI plötzlich verhandelbar werden.
Reputation. Wenn Analysen, Strategiepapiere, Kundenkommunikation auf KI-Grundlage entstehen, ohne dass ihre Tiefe und Belastbarkeit geprĂŒft wird, dann ist jedes dieser Dokumente ein Reputationsrisiko. Nicht weil KI per se schlecht wĂ€re, aber weil nicht mehr so genau hingeschaut wird.
IntegritĂ€t. Unternehmen versprechen ihren Kunden, Partnern und Mitarbeitenden fachliche Sorgfalt. Wenn Entscheidungen von KI vorstrukturiert werden und die Menschen, die sie abzeichnen, weder die Zeit noch die Kompetenz haben, sie wirklich zu prĂŒfen, dann ist die Sorgfalt formal vorhanden, aber substanziell ausgehöhlt. Die Unterschrift steht. Aber wofĂŒr sie bĂŒrgt, hat sich verĂ€ndert.
Fachliche GlaubwĂŒrdigkeit. Eine Beratung, die ihren Kunden KI-generierte Analysen verkauft, ohne deren Grundlage zu prĂŒfen. Ein Unternehmen, dessen Strategiepapiere gut klingen, aber auf KI-generierten PlausibilitĂ€ten beruhen. Eine Rechtsabteilung, die KI-gestĂŒtzte EinschĂ€tzungen weitergibt, ohne sie vollstĂ€ndig zu verifizieren. In all diesen FĂ€llen wird die Kompetenz unterspĂŒlt, fĂŒr die diese Organisationen stehen.
EntscheidungssouverÀnitÀt. Wenn VorstÀnde Entscheidungen auf Grundlage von Informationen treffen, deren Herkunft, Tiefe und Belastbarkeit sie nicht mehr selbst beurteilen können, dann ist das kein technisches Problem. Es ist ein Governance-Problem.
Kundenvertrauen. Kunden vertrauen darauf, dass das, was sie bekommen, von Menschen verantwortet wird, die wissen, was sie tun. Wenn dieses Vertrauen auf einer Kette beruht, in der wesentliche Glieder unkontrolliert an KI delegiert wurden, dann ist es strukturell gefÀhrdet.
Mitarbeiterbindung und Kultur. FachkrÀfte, die merken, dass ihre Expertise zunehmend durch KI-generierte OberflÀche ersetzt wird, ohne dass das offen verhandelt wird, verlieren nicht nur Motivation. Sie verlieren die Bindung an eine Organisation, die behauptet, ihre Kompetenz zu schÀtzen, aber faktisch ihre Arbeit entwertet.
Dieselben Unternehmen, die ISO-Zertifizierungen pflegen, Compliance-Abteilungen unterhalten, Due-Diligence-Prozesse fĂŒr jede Akquisition durchlaufen und QualitĂ€tsmanagement als Kernkompetenz begreifen, setzen KI in ihre sensibelsten Prozesse ein, ohne die vergleichbare Sorgfalt aufzuwenden. Das ist der Widerspruch. Und er ist das direkte Produkt einer ErzĂ€hlung, die Sorgfalt als Langsamkeit diskreditiert.
In ihrer Sprache
Ich bin kein KI-Gegner, wahrlich nicht. Ich arbeite mit dieser Technologie, ich vermittele sie. Ich sehe ihr Potenzial, jeden Tag. Und genau deshalb beschÀftigt mich, was ich beobachte.
Denn mein Argument ist nicht, dass KI gefÀhrlich ist und aufgehalten werden muss. Mein Argument ist, dass eine Technologie mit dieser Reichweite und dieser Tiefe einen ehrlichen Umgang verdient. Und dass dieser ehrliche Umgang gerade eingehegt wird.
Die Frage ist, wie man das durchbricht. Und meine Erfahrung ist, nicht mit Gegenrhetorik. Nicht mit Kulturkritik, die von FĂŒhrungskrĂ€ften als akademisch oder weltfremd abgetan wird. Es geht um die Sprache, und zwar um die richtige Sprache.
Stell dir vor, du leitest ein Industrieunternehmen. Du hast eine ProduktionsstraĂe, hundert Meter lang. In der Mitte wird ein neues Verfahren eingesetzt. Schneller, vielversprechend, potenziell ein echter Sprung. Aber niemand hat systematisch geprĂŒft, was es mit der MaterialqualitĂ€t macht. Niemand hat so richtig grĂŒndlich gemessen, ob die nachgelagerten Prozesse noch sauber funktionieren. Niemand hat die Mitarbeitenden umfassend geschult, die mit den verĂ€nderten Zwischenprodukten weiterarbeiten mĂŒssen.
Was wĂŒrde passieren? Am Ende der Strecke hĂ€ttest du Produkte, die im besten Fall noch gut aussehen, aber nicht halten. Kund*innen merken es. Vielleicht nicht sofort, aber irgendwann. Und dann geht es um Reputation, um Vertrauen, und natĂŒrlich um Marktposition. Um genau die Dinge, die du mit dem neuen Verfahren schĂŒtzen wolltest.
Kein*e Ingenieur*in, kein*e Produktionsleiter*in, kein*e QualitĂ€tsmanager*in wĂŒrde ein Verfahren ohne grĂŒndliche PrĂŒfung auf die Strecke bringen. Ohne TestlĂ€ufe, ohne Wirkungsanalyse, ohne ausreichende Schulung, die alle wichtigen Aspekte behandelt. Das wĂ€re fahrlĂ€ssig. Jede*r wĂŒrde das sofort unterschreiben.
Aber bei KI in der Wissensarbeit passiert genau das. Nur dass die Produkte hier Analysen sind, Strategien, Entscheidungen, Kundenkommunikation, Kundenbeziehungen. Und dass man QualitÀtsverlust nicht auf den ersten Blick sieht. Eher erst, wenn die Konsequenzen da sind.
Der Punkt ist: Man muss GeschĂ€ftsfĂŒhrenden nicht erklĂ€ren, dass Sorgfalt wichtig ist. Das wissen sie selbst. Man muss ihnen zeigen, dass sie ihre eigenen Standards gerade aussetzen. In ihrer eigenen Sprache. Mit ihren eigenen MaĂstĂ€ben.
Und man muss ihnen zeigen, dass der Beipackzettel kein Hindernis fĂŒr Geschwindigkeit ist. Er ist die Voraussetzung dafĂŒr, dass Geschwindigkeit nicht in Ergebnisse mĂŒndet, die die Organisation am Ende mehr kosten als sie einbringen.
#DRANBLEIBEN ist fĂŒr dich kostenlos, fĂŒr mich steckt da aber jede Menge Arbeit und Herzblut drin. Wenn du Lust hast, mich dabei ein bisschen zu unterstĂŒtzen: Ich freue mich ĂŒber jeden Support. Den kannst du z.B. ĂŒber ein freiwilliges kostenpflichtiges Abo geben oder ĂŒber eine kleine Spende fĂŒr einen Kaffee.
Was bleibt
Ich habe diesen Deep-Dive nicht geschrieben, weil ich glaube, dass KI aufgehalten werden muss. DafĂŒr ist das Potenzial viel zu groĂ, wenn wir es richtig anstellen. Ich habe das hier geschrieben, weil ich glaube, dass eine so wirkmĂ€chtige Technologie ein GesprĂ€ch verdient, das der Wirkung angemessen ist. Und dieses GesprĂ€ch findet in zu vielen Organisationen nicht statt.
Und ich glaube auch, dass die meisten Unternehmen, die Reflexion gerade beiseite schieben, das nicht aus böser Absicht tun. Sie tun es, weil es verdammt schwer ist, einen kĂŒhlen Kopf zu bewahren, wenn um einen herum alles nach Aufbruch schreit. Wenn Boards drĂ€ngeln, Beratungen mahnen und Wettbewerber vermeintlich davonziehen. Wenn eine ganze Branche von sehr einflussreichen Akteuren vor sich hergetrieben wird, die selbst noch auf der Suche nach einem tragfĂ€higen GeschĂ€ftsmodell sind und dafĂŒr möglichst viele Abnehmer brauchen. Ob es dieses KI-Wettrennen ĂŒberhaupt gibt, in dem alle Angst haben, den Anschluss zu verlieren, ist dabei alles andere als ausgemacht. Aber die Angst wirkt trotzdem. Und in dieser Gemengelage ist die Versuchung groĂ, einfach mitzurennen statt auch mal kurz innezuhalten und hinzuschauen.
Genau deshalb braucht es den ehrlichen Blick umso dringender.
Die Philosophin oder der Philosoph, im ĂŒbertragenen Sinne, stört dabei. Das mag in einem System stimmen, das auf maximale Geschwindigkeit optimiert ist. Aber bei einer Technologie, die so tief in Entscheidungsprozesse, ArbeitsidentitĂ€t und Organisationskultur eingreift, ist diese Reflexion kein Luxus. Sie ist eine Notwendigkeit. Unternehmen sind keine UniversitĂ€ten; sie mĂŒssen keine Seminare ĂŒber Erkenntnistheorie abhalten. Aber wenn sie bei KI auf den Rundumblick verzichten, gefĂ€hrden sie genau das, was sie zu erreichen versuchen. NĂ€mlich QualitĂ€t, Vertrauen, WettbewerbsfĂ€higkeit und damit ZukunftsfĂ€higkeit.
Die Ironie ist bitter. Wer KI nur als Heilsversprechen behandelt, wird ihr Potenzial im besten Fall nie voll ausschöpfen. Und im schlimmsten Fall Schaden fĂŒr Kultur, AblĂ€ufe, die eigene Organisation und ihre Ergebnisse anrichten.
Denn souverÀner Einsatz braucht Verstehen.
Verstehen braucht Offenheit.
Und Offenheit braucht den Mut, auch das anzusprechen, was gerade unbequem ist.
Das hier ist ein Aufruf fĂŒr den ehrlichen Blick auf eine Technologie, die den ehrlichen Blick verdient. Und ein Aufruf an alle, die in Organisationen Verantwortung tragen, diesen Blick nicht nur zuzulassen, sondern einzufordern. Gerade jetzt, gerade weil der Druck so groĂ ist.
Denn der richtige Moment, ĂŒber Nebenwirkungen zu sprechen, ist nicht irgendwann. Er ist, bevor sie wirken. SpĂ€testens jetzt.
Deshalb: Bleibâ dran!
Herzlichst,
André
Noch ein paar kurze Leseempfehlungen
7 Ways to Spot Someone Who Thinks the AI Understands Them (von Beth Rudden)
Eine recht wertvolle Hilfestellung gegen Ausrutschen auf dem KI-Glatteis gibt es hier. Gerade in Zeiten, wo auch Wissenschaftler (wenn auch sehr fragwĂŒrdige) glauben, die KI hĂ€tte ein Bewusstsein, sollte man die eigene Resilienz stĂ€rken. Beth Rudden beschreibt sieben Muster, an denen man erkennt, dass jemand glaubt, die KI verstehe ihn oder sie. âDon't lie to me" in den Prompt schreiben. Die KI bitten, sich selbst zu ĂŒberprĂŒfen. Sich von einer Entschuldigung beruhigen lassen, die nichts anderes ist als das statistisch wahrscheinlichste Wort nach âyou got it wrong". Immer lĂ€ngere Anweisungen schreiben, wenn die KI nicht gehorcht. Mein Lieblingssatz: âYou're not tightening a constraint. You are adding wishes to a wish list." Wenn du dich selbst dabei ertappst und ĂŒber sowas nachdenkst, machst du gerade den ersten Schritt in die richtige RichtungâŠ
Elon Musk Is Playing God (gelesen bei The Atlantic - von Charlie Warzel und Hana Kiros)
Der Titel klingt nach Polemik, der Text ist es nicht. Warzel und Kiros zeichnen nach, wie Musks verschiedene Projekte zusammenpassen, wenn man sie als Ganzes betrachtet. SpaceX, Pronatalismus, DOGE, die Zerstörung von USAID, das Gerede von âsuicidal empathy" als SchwĂ€che westlicher Zivilisation. Diese sehr wertvolle Reportage verbindet das mit konkreten Konsequenzen: Kinder, die in SĂŒdsudan auf dem Weg zur nĂ€chsten Klinik sterben, weil Programme gestrichen wurden. HIV-positive SĂ€uglinge, deren Testergebnisse nicht mehr transportiert werden. Das ist eine Dokumentation dessen, was passiert, wenn jemand mit unbegrenzten Ressourcen und einer Ideologie handelt, die manche Menschen fĂŒr verzichtbar hĂ€lt.
X oder: Das GeschĂ€ft mit der Empörung (gelesen beim Altpapier - von Antonia GroĂ)
Diese Empfehlung ist mir besonders wichtig. Denn in dieser Woche waren deutsche âQualitĂ€tsmedienâ voll mit Kritik am Abgang von SPD, GrĂŒnen und Linken von X. âMan darf das Feld nicht rĂ€umen.â âKopf in den Sand.â âFalscher Schritt zur falschen Zeit.â Und dabei war ĂŒberdeutlich, dass sich kaum jemand in diesen Redaktionen wirklich ernsthaft mit dem tatsĂ€chlichen Zustand der Jauchegrube X befasst hat.
Das Argument âDebattenraumâ wird nicht wahrer, je hĂ€ufiger man es wiederholt. Die Mehrheit der demokratischen Abgeordneten war dort bereits vor diesem Schritt nicht mehr aktiv. Vereine, VerbĂ€nde, groĂe Teile der Wissenschaft und der progressiven Zivilgesellschaft sind seit Monaten, teilweise Jahren weg. X ist in Deutschland gesamtgesellschaftlich mittlerweile Ă€hnlich relevant wie Truth Social. Wer X heute noch als gesellschaftlichen Marktplatz beschreibt, beurteilt die Plattform auf Basis eines BauchgefĂŒhls von 2021, nicht auf Basis der RealitĂ€t von 2026. Was dort passiert, ist dokumentiert. Progressive Accounts werden gesperrt und zensiert. Rechte und rechtsradikale Accounts werden algorithmisch massiv bevorzugt. Musk hat sich ĂŒber seine Plattform in zahlreiche Wahlen eingemischt. Justiziable Hate Speech wird toleriert und gefördert. Die Liste ist noch viel lĂ€nger.
Und trotzdem wird der Abgang als âfeigeâ geframed. Als könne man keine anderen Meinungen ertragen. Aber wieso ĂŒberhaupt diese Debatte? Niemand kommt auf die Idee, dieses Argument fĂŒr die Kommentarspalte bei NIUS zu bringen, wo man âgegenhaltenâ soll. Niemand geht in eine Nazikneipe, um dort die Demokratie zu verteidigen. Warum soll das bei X anders sein?
Es gibt einen Unterschied zwischen kontroversen Meinungen im demokratischen Spektrum, die man aushalten kann und soll, und Rechtsradikalismus. Es gibt eine Linie. Es gibt keine Verpflichtung, sich mit Rechtsradikalen zu beschÀftigen, und es gibt auch nichts zu debattieren, wenn kein gemeinsames Fundament aus Menschenrechten und Achtung der freiheitlich-demokratischen Grundordnung vorhanden ist.
Antonia GroĂ vom Altpapier hat das diese Woche sauber und absolut redlich aufgearbeitet. Sie zeigt, wie Redaktionen X behandeln, als wĂ€re die Plattform die Demokratie selbst, statt das, was sie ist: ein profitorientiertes Unternehmen, das von Empörung lebt. Die prominenten Accounts, die âgegenhaltenâ wollen, halten vor allem die Plattform am Laufen. Wenn du noch nicht raus bist aus X: jetzt ist der Moment.
Das war es fĂŒr heute. Bitte leite oder empfehle den Newsletter doch gerne weiter âĄïž âïž - das wĂŒrde mir sehr helfen. Danke dir fĂŒr die Aufmerksamkeit und bis zum nĂ€chsten Mal!









