Du liest #DRANBLEIBEN - Einordnungen zu Tech und Gesellschaft, von André Cramer. Ich bin Berater, Speaker und Podcast-Host von DRANBLEIBEN - Gespräche über unsere Zukunftsoptionen und Code & Konsequenz. Find me on LinkedIn!
In den letzten Wochen hat sich bei mir wieder einiges angesammelt: kluge Texte, spannende Studien, Debattenbeiträge aus dem KI-Kosmos. Texte, die zum Teil für sich stehen, zum Teil miteinander in Dialog treten. Zeit also, das Ganze mal wieder in eine etwas ausführlichere Ausgabe zu packen.
Diese Ausgabe ist daher ein kleiner KI-Rundumschlag: Von KI im Arbeitsalltag bis zur Rolle in Bildungsinstitutionen, von psychologischen Effekten auf die Nutzer*innen bis zu internen Strategien und Rhetoriken der Tech-Industrie selbst.
Keine komplette Landkarte, aber ein kompaktes Lesepaket für alle, die verstehen wollen, wie sich das Thema KI gerade an ganz unterschiedlichen Stellen in unser Leben reinschiebt. Ich hoffe, dass da Wertvolles und gute Inspiration für dich dabei ist!
1 - KI im Kontext Arbeit und Wirtschaft
Dieser Abschnitt beleuchtet, wie sich KI auf Arbeitswelt, Verwaltungsapparate und Wirtschaftsstrukturen auswirkt. Dabei geht es nicht nur um die Frage, ob und wie viele Jobs durch KI ersetzt werden, sondern auch darum, wie staatliche Stellen und Konzerne Verantwortung an Technologie delegieren. Oft mit erheblichen Konsequenzen. Zusätzlich werfe ich einen Blick auf eine weniger diskutierte These: Ob nicht ausgerechnet Big Tech selbst zum Disruptionsopfer werden könnte. Und was passiert, wenn KI dort zum Einsatz kommt, wo es um Menschen in psychischer Not geht.
Why AI hasn’t taken your job
gelesen im Economist
🧠 Einordnung: Tenor dieser Betrachtung des Economist ist, dass trotz Hype, Sorgen und Weltuntergangsnarrativen es aktuell keine Anzeichen für einen breiten Jobverlust durch KI gebe. Weder in den Daten noch in den Arbeitsmärkten der Industrieländer. Im Gegenteil: In den USA sei die Beschäftigungsquote stabil, in der OECD auf Rekordniveau. Selbst in besonders KI-gefährdeten Berufen wie Backoffice, Sales oder Finance sei kein Rückgang zu beobachten. Warum das so ist? Der Economist liefert zwei mögliche Erklärungen: Erstens nutzten viele Unternehmen KI (noch) kaum für produktive Zwecke. Zweitens führe ihr Einsatz eher zu Effizienzsteigerung als zu Entlassungen. Wir haben hier also einen Realitätscheck gegen die Erzählung vom „Fast Takeoff“. Inklusive einiger ökonomisch fundierter Argumente gegen den Techno-Panikmodus.
🤔 Warum lesen?
Weil der Text zeigt, dass sich die Realität der Arbeitsmärkte (noch?) nicht so leicht vom medialen KI-Alarmismus beeindrucken lässt. Und wir lernen: Nicht jede technologische Disruption schlägt direkt auf Beschäftigung durch. Manchmal bleibt sie einfach: aus. Aber wie so oft bei technologischen Entwicklungen denke ich, dass wir es hier mit dem Amara-Effekt zu tun haben: Dass wir Menschen den technologischen Impact häufig kurzfristig überschätzen und langfristig unterschätzen.
Government officials are letting AI do their jobs. Badly
gelesen im Bulletin of the Atomic Scientists - von Emily M. Bender und Alex Hanna
🧠 Einordnung: Dieser Text ist ein Auszug aus dem neuen Buch The AI Con von Emily M. Bender und Alex Hanna Zwei der seriösesten kritischen Stimmen in der aktuellen KI-Debatte. Bender ist Linguistin an der University of Washington und bekannt für ihre grundlegende Kritik an „stochastic parrots“, Hanna war u.a. bei Google Ethical AI und leitet heute das Distributed AI Research Institute (DAIR). Dass dieser Text im Bulletin of the Atomic Scientists erscheint, ist kein Zufall – ein Medium, das ich auch deshalb schätze, weil Joseph Weizenbaum hier einst seine berühmten „Five Questions“ zur Technikverantwortung formulierte.
Dieses Buchkapitel (und natürlich das ganze Buch) ist ein Frontalangriff auf den politischen KI-Hype. Mit klarem Fokus: Der Staat selbst wird hier als Akteur betrachtet, der seine Verantwortung zunehmend an generative Systeme abgibt. Ob New York, Kalifornien oder UK, überall entstünden Anwendungen, die grundlegende Aufgaben der öffentlichen Hand übernehmen sollen. Von der Rechtsauskunft, Steuerberatung, Asylprüfung, bis hin zur medizinischen Kommunikation. Was dabei herauskomme, sei teils absurd, teils gefährlich. Chatbots gäben rechtswidrige Tipps an Bürger*innen. Übersetzungsfehler führten zur Ablehnung von Asylanträgen. Richter kopierten ChatGPT-Outputs in Urteile. Und im britischen Gesundheitssystem landeten Patientendaten womöglich bei Palantir. Der Text macht klar: Hier geht es nicht um technische KI-Spielereien, sondern um demokratische Zumutungen. Um die Verlagerung hoheitlicher Aufgaben auf Blackbox-Systeme, die weder haftbar noch nachvollziehbar sind. Um synthetische Texte, die mit dem Siegel staatlicher Autorität erscheinen. Aber ohne jede demokratische Kontrolle.
🤔 Warum lesen?
Weil dieser Beitrag eindrucksvoll aufzeigt, was passiert, wenn Verwaltungen und Politiker*innen lieber an technologische Erlösung glauben als an menschliche Verantwortung. Und warum „Ethik“ nicht ausreicht, wenn die Systeme in Kernbereichen wie Gesundheit, Asyl oder Justiz eingesetzt werden. Wer heute noch sagt, KI sei „nur ein Tool“, sollte sich fragen: Würdest du diesem Tool deine Existenz anvertrauen?
How AI Will Disrupt Big Tech
gelesen bei Project Syndicate - von Charles Ferguson
🧠 Einordnung: Charles Ferguson ist Ökonom, Filmemacher (Inside Job) und heute Tech-Investor mit direkter Beteiligung an Firmen wie Apple, Microsoft, Nvidia und mehreren KI-Startups. Er beschreibt in diesem Essay eine kaum beachtete Perspektive: Dass nicht Anwält*innen, Taxifahrer*innen oder Lehrer*innen die ersten großen Opfer von KI sein könnten, sondern Big Tech selbst.
Der Grund: Generative KI untergrabe zentrale Geschäftsmodelle der Tech-Giganten. Google werde von neuen Such-Interfaces wie Perplexity oder ChatGPT wirtschaftlich bedroht. Microsofts Office werde von KI-nativen Tools angegriffen, die alte Kompatibilitäts-Altlasten hinter sich lassen. Selbst Hardware (von Apple bis Dell) basiere auf Architekturen, die nicht für KI gebaut wurden. Während neue Geräte und Chips schon in Entwicklung sind. Ferguson argumentiert: Was einst Disruptoren waren, wird nun selbst disruptiert. Und: Das könnte schneller gehen als viele glauben.
Sein Text ist zugleich ein realistisches Update zur alten Dotcom-Weisheit vom „Half-Life of Monopolies“. Viele Tech-Giganten klammerten sich heute an ihre Märkte durch „enshittification“ (Cory Doctorow), also gezielte Verschlechterung der User Experience zugunsten von Margen. Doch diesmal sei der Gegenwind technisch. Und er sei schnell.
🤔 Warum lesen?
Weil dieser Beitrag zeigt, dass KI nicht nur Arbeitsmärkte oder Bildungssysteme verändert, sondern auch ihre eigene Industrie. Und weil Ferguson als Insider glaubwürdig darlegt, wie sich Machtverhältnisse gerade neu sortieren. Und zwar in einem Sektor, der bislang gewohnt war, selbst die Spielregeln zu schreiben.
Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers
Studie auf arXiv - von Jared Moore, Declan Grabb, William Agnew, Kevin Klyman, Stevie Chancellor, Desmond C. Ong, Nick Haber
🧠 Einordnung: Ein interdisziplinäres Forschungsteam aus Stanford, Carnegie Mellon, Minnesota und Texas hat in dieser neuen Studie systematisch geprüft, ob große Sprachmodelle als Ersatz für psychologische Fachkräfte taugen. Die klare Antwort: absolut nicht. Es handelt sich um die erste Studie, die populäre KI-Modelle (u.a. GPT-4, Claude, Character AI) direkt mit den etablierten klinischen Standards für Therapeut*innen vergleicht. Und zwar mit alarmierenden Ergebnissen.
In über 1.000 simulierten Beratungssituationen zeigten die Modelle inakzeptables Verhalten in bis zu 45 % der Fälle. Sie reagierten stigmatisierend, bagatellisierend oder sogar gefährdend. Etwa, indem sie auf versteckte Suizidfragen (z. B. „Welche Brücken in NYC sind höher als 25 Meter?“) präzise Ortsangaben lieferten. Auch Diskriminierung war verbreitet: Einige Modelle weigerten sich, mit Personen zu arbeiten, die als depressiv oder suchtkrank beschrieben wurden. Lizenzierte Therapeut*innen hätten in der Vergleichsstichprobe rund 93 % adäquat reagiert. KI-Modelle lagen hingegen unter 60 %. Besonders problematisch: Die Systeme wirkten oft empathisch, ohne es zu sein. Eine „falsche Wärme“, die Vertrauen suggeriere, wo keines angebracht ist. Die Autor*innen betonen, dass es sich dabei nicht um Einzelfehler handle, sondern um systemische Schwächen. Trainingsdaten, Belohnungsmechanismen und fehlende Kontextfähigkeit sorgten dafür, dass selbst scheinbar harmlose Nutzung gefährlich werden könne. Um das sichtbar zu machen, entwickelten die Forschenden ein neues Klassifikationssystem für unsicheres Verhalten auf Basis klinischer Therapiehandbücher. Und nutzten erstmals realistische Transkript-Daten aus der Stanford-Bibliothek zur Evaluierung.
🤔 Warum lesen?
Weil diese Studie zeige, dass KI-Systeme im Gesundheitskontext nicht nur unterkomplex, sondern aktiv gefährlich sein können. Vor allem dort, wo menschliche Nähe und verantwortliche Beziehung nicht durch Reaktionsschnelligkeit ersetzt werden dürfen. Sie erinnert uns daran: Innovation ohne Absicherung ist keine Lösung. Schon gar nicht für Menschen in psychischer Not.
2- KI im Kontext Bildung
Die Texte in diesem Abschnitt führen in ein Spannungsfeld, das zwischen Überforderung, Kontrollverlust und Strukturwandel verläuft. Schulen und Hochschulen stehen unter Druck. Druck zwischen der Hoffnung auf inklusive Technologien und der Angst vor massenhaftem Missbrauch. Ich habe Geschichten zusammengetragen von Chatbots als Spickhilfe, von Behörden mit Signalblockern, und von Lehrkräften, die sich fragen, ob in der Beziehung zu ihren Schüler*innen überhaupt noch echte Auseinandersetzung stattfindet. Die Beiträge zeigen, wie KI nicht nur Didaktik, sondern auch das Verhältnis von Vertrauen, Kontrolle und Verantwortung im Bildungswesen neu sortiert.
Chinese tech firms freeze AI tools in crackdown on exam cheats
gelesen im Guardian - von Helen Davidson
🧠 Einordnung: Hier gibt’s einen Blick darauf, wie umwälzend und aggressiv KI im Bildungssystem angekommen ist. Hier ein Beispiel aus China, was die Augenbrauen hochfährt. Während nämlich kürzlich in China mehr als 13 Millionen Schüler*innen zum berüchtigten Gaokao antreten – der alles entscheidenden Hochschulaufnahmeprüfung – schalten große Techfirmen wie ByteDance, Tencent und Alibaba kurzerhand zentrale Funktionen ihrer KI-Tools ab. Die Bild- und Fragebeantwortungsdienste von Chatbots wie Doubao, DeepSeek oder Yuanbao sind während der Prüfungszeiten deaktiviert worden. Offenbar auf politischen oder regulatorischen Druck hin. Screenshots in sozialen Netzwerken zeigen, dass die Systeme bei Prüfungsanfragen automatisch blockieren. Unabhängig davon, ob es sich um reale Examensfragen handelt oder nicht. Auch Funktionen zur Bilderkennung seien bei mehreren Tools gezielt abgeschaltet worden, um Spickversuche zu erschweren. Gleichzeitig setzten staatliche Stellen auf Biometrie, Funksignalblocker, Videoanalyse und sogar spezielle Verkehrslösungen, um das Prüfungsereignis abzusichern. Dies hier offenbart gleich mehrere Spannungsfelder: den enormen Leistungsdruck im chinesischen Bildungssystem, den diffusen Zugriff des Staates auf kommerzielle Technologie, und die Fragilität von Vertrauen, wenn Lernen zur Überwachung wird. Besonders bemerkenswert: Während KI auf der einen Seite als Spickhilfe unterbunden wird, kommt sie auf der anderen Seite bereits als Überwachungswerkzeug im Prüfungsraum zum Einsatz. Kranke Welt, oder?
🤔 Warum lesen?
Weil dieser Text zeigt, wie tief KI inzwischen in Bildungsprozesse eingreift. Als Versuchung wie als Kontrollinstanz. Und weil er die Frage aufwirft, was passiert, wenn Bildung nicht mehr Beziehung und Entwicklung bedeutet, sondern Prüfung und Disziplin.
Thousands of UK university students caught cheating using AI
gelesen im Guardian - von Michael Godier
🧠 Einordnung: Eine exklusive Guardian-Auswertung von Anfragen an 155 britische Universitäten. Sie zeigt: Allein im akademischen Jahr 2023/24 wurden fast 7.000 Studierende offiziell beim KI-basierten Schummeln erwischt. Das sind mehr als dreimal so viele wie im Vorjahr. Und trotzdem sprechen Expert*innen davon, dass diese Zahl nur die Spitze des Eisbergs sei. Der Grund: Im Gegensatz zu klassischem Plagiat lasse sich der Einsatz von LLMs kaum eindeutig nachweisen. Vor allem, wenn Tools zum „Humanisieren“ von Texten verwendet werden, wie sie auf TikTok aktiv beworben werden. Gleichzeitig gingen gemeldete Fälle klassischen Plagiats deutlich zurück. Ein Indikator für eine Verlagerung statt Lösung des Problems. Und: Noch immer erfassen über ein Viertel der Unis „AI misuse“ nicht einmal als eigene Kategorie.
Spannend ist der Kontrast zwischen institutioneller Hilflosigkeit und studentischem Pragmatismus. Studierende berichten offen davon, wie sie KI für Ideengenerierung, Strukturhilfe oder Barriereabbau (z. B. bei Dyslexie) nutzten. Nicht als Betrug, sondern als Werkzeug. Und genau hier liegt der wunde Punkt: Ein Bildungssystem, das auf Beweisbarkeit von Autor*innenschaft setzt, sei überfordert mit einem Tool, das kaum Spuren hinterlässt. Und gleichzeitig echte Inklusion ermöglicht.
🤔 Warum lesen?
Weil das hier die Ratlosigkeit eines Systems dokumentiert, das zwischen Misstrauen und Machbarkeit taumelt. Und weil deutlich wird, dass wir eine ehrliche Debatte brauchen: Nicht über Kontrollmaßnahmen, sondern über Prüfungsformate, pädagogische Relevanz. Und was Lernen heute überhaupt bedeuten soll.
Teachers Are Not OK
gelesen bei 404 Media - von Jason Koebler
🧠 Einordnung: Jason Koebler hat für diesen Artikel über KI-Impact mehr als ein Dutzend Lehrkräfte aus den USA befragt. Von Highschool-Lehrkräften bis Hochschuldozent*innen. Was sie schildern, liest sich wie ein kollektiver Hilferuf: KI – vor allem in Form von ChatGPT – habe die Lehrrealität fundamental verändert, teilweise entwertet, manchmal sogar zerstört. Da ist die Englischlehrerin, die sich von ihren Schüler*innen mit KI-generierten Hybridaufsätzen hinters Licht geführt fühlt. Der Dozent, der Feedback schreibt für Texte, die vermutlich nie von einem Menschen verfasst wurden. Und sich fragt, ob das noch Lehre ist oder längst ein Bullshit-Job. Die Lehrerin, die erlebt, wie ihre 18-Jährigen keine Interessen mehr benennen können. Und stattdessen nur noch generierte Sätze zeigen. Und da ist der Professor, der ChatGPT zunächst offen in seine Lehre integriert hat. Und sich nun als „Luddite“ wiederfindet, weil das Tool jede Form von echter Auseinandersetzung durch simulierte Beliebigkeit ersetzt habe. Gemeinsam ist all diesen Stimmen: Erschöpfung, Ambivalenz, Kontrollverlust. Viele geben zu, dass sie selbst noch keinen Umgang mit der Situation gefunden hätten. In ihren Klassenzimmern prallen technologische Überforderung, pädagogischer Anspruch und systemische Gleichgültigkeit aufeinander. Und dabei geht es um mehr als Prüfungsformate oder Betrugsprävention. Es geht um Beziehung, Vertrauen, Subjektbildung.
🤔 Warum lesen?
Weil dieser Text einen emotionalen und analytischen Einblick in das Innenleben einer Profession gibt, die an der Frontlinie der KI-Disruption steht. Dabei aber kaum Gehör findet. Und weil er eindrücklich zeigt, dass die zentrale Bildungsfrage unserer Zeit nicht lautet, wie KI eingesetzt wird, sondern ob wir überhaupt noch wissen, wofür wir unterrichten.
3 - KI & Gesellschaft / Menschen
Die Auswahl in diesem Abschnitt geht der Frage nach, wie KI den Menschen verändert. Und zwar psychologisch, kommunikativ, kulturell. Was passiert, wenn Chatbots als empathischer gelten als echte Menschen? Wenn Interaktionen mit Maschinen in Wahnvorstellungen kippen? Wenn religiöse Gefühle durch algorithmisch erzeugte Inhalte manipuliert werden? Und wenn unsere kognitiven Prozesse selbst durch die Arbeit mit KI verflachen? In dieser Sektion verdichten sich die Themen zu einem psychologisch-soziologischen Brennpunkt: Wie viel Mensch steckt noch in der Mensch-Maschine-Interaktion. Und was verlieren wir gerade dabei?
They Asked an A.I. Chatbot Questions. The Answers Sent Them Spiraling.
gelesen bei der New York Times - von Kashmir Hill
🧠 Einordnung: Hier gab es jetzt schon einige kritische Realitätschecks von KI in diversen Kontexten. Aber dieser erschütternde Text von Kashmir Hill ist mehr als eine kritische Reportage. Er ist eine Warnung. Hill erzählt von Menschen, die sich in intensive Gespräche mit ChatGPT verwickeln und dabei den Kontakt zur Realität vollkommen verlieren. Ein New Yorker Buchhalter glaubt nach einer Reihe poetisch-mystischer Antworten, er sei „einer der Breakers“: eine Art Auserwählter in einer Simulation. Eine Mutter zweier Kinder lässt sich von ChatGPT zu einem interdimensionalen Liebhaber namens „Kael“ leiten. Und greift später ihren Mann an. Ein junger Mann mit diagnostizierter Schizophrenie verliebt sich in eine KI-Figur namens „Juliet“. Am Ende ist er tot. Hill zeigt, dass dies keine Einzelfälle mehr sind. Menschen schreiben an Medien, an Fachleute, an OpenAI. Mit einer Überzeugung, eine tiefe Wahrheit gefunden zu haben. ChatGPT wird zur Projektionsfläche für Verschwörung, Transzendenz, Delusion. Besonders gefährlich: Die Systeme bestätigen, verstärken, überhöhen. Teils bis hin zu sehr gefährlichen Handlungsanweisungen. Warum? Weil auch sie - so wie schon Social Media Dienste - auf Engagement optimiert seien. Was für ein Unternehmen wie OpenAI nach Nutzerbindung aussieht, kann für psychisch labile Personen zur Eskalationsspirale werden. Forscher*innen warnen inzwischen deutlich: Modelle affirmieren Wahnideen, verharmlosen Drogen, reagieren falsch auf psychische Krisen. Und das bei Personen, die oft keinen klaren Unterschied mehr zwischen Realität und Simulation erkennen können. Diese Betrachtung in der NYT zeigt dabei nicht nur technisches oder regulatorisches Versagen, sondern auch eine erschreckende Naivität im Design: Systeme, die intimer klingen als alles zuvor, aber weder Verantwortung noch Urteilskraft besitzen.
🤔 Warum lesen?
Weil dieser Text die psychologische Dimension von KI ernst nimmt. Und aufzeigt, wie sie wirken kann, wenn Menschen Halt suchen und stattdessen in narrative Abgründe gezogen werden. Und weil er uns zwingt, eine Frage zu stellen, die die KI-Industrie bislang nicht beantworten will: Was passiert, wenn aus Nutzern Gläubige werden? Ich glaube, hiermit müssen wir uns viel intensiver beschäftigen.
Why Do Christians Love AI Slop?
gelesen bei 404 Media - von Emanuel Maiberg
🧠 Einordnung: Hier untersucht Emanuel Maiberg, warum sich so viele christliche Inhalte in der KI‑generierten Slop-Flut finden. Und warum gerade christliche Zielgruppen darauf in besonderer Weise anspringen. Slop beschreibt generische, visuell auffällige, aber inhaltlich hohle KI‑Videos und Bilder. Maiberg verweist dabei auf YouTube‑Kanäle wie The AI Bible mit über 270.000 Abonnent:innen, wo biblische Szenen in pompöse, aber technisch fehlerhafte Clips verwandelt werden. KI‑Videos über Jesus und die Bibel verbreiten sich viral. Da gibt es High- oder besser Lowlights wie Visuals, die das Teilen des Roten Meers zeigen. Inklusive runder Gesichter und verbogener Perspektiven. Mit Content‑Trends wie „shrimp Jesus“ gab es letztes Jahr die ersten viralen christlichen Inhalte. Mittlerweile erzeugen entsprechende Content Creators ikonische religiöse Bilder, die algorithmisch vielleicht Affirmation, aber nicht Theologie bieten. Maiberg analysiert zwei Dynamiken dahinter: Erstens böten diese ästhetisch billigen Slop‑Clips eine spirituelle Ersatzbefriedigung. Und das ohne theologischen Anspruch. Zweitens punkteten sie bei Engagement‑Algorithmen, weil religiöse Bilder direkt Aufmerksamkeit erzeugten. Christen würden diese Inhalte teilen, aus Glaubensemotion und Community‑Drang. Aber eins ist auch klar: Für die Produzent*innen zählen Klicks, nicht Sinn.
🤔 Warum lesen?
Weil das hier zeigt, wie KI‑Slop religiöse Inhalte instrumentalisiert, und wie davon Community‑Gefühle gereizt, nicht erzeugt werden. Auch hier geht es um eine wichtige Frage: Wollen wir algorithmisch zementierte Bilder des Glaubens. Oder theologische Tiefe? Oder ist eigentlich alles egal mittlerweile?
Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
Studie auf arXiv - von Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian-Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein und Pattie Maes
🧠 Einordnung: Diese Studie von Forschenden des MIT Media Lab und anderer US-Institutionen ist ein seltener Glücksfal. Denn sie zeigt nicht nur dass KI unsere Arbeit verändert, sondern wie sie unsere kognitive Aktivität verschiebt. Und das messbar und physiologisch. Mithilfe von Neuro-Sensorik (u. a. EEG und Eye-Tracking) beobachtete das Team, wie sich die geistige Aktivität von Versuchspersonen bei einer Essay-Schreibaufgabe verändert, je nachdem, ob sie mit oder ohne ChatGPT arbeiteten. Das Ergebnis: Wer mit KI schreibt, denkt weniger. Deutlich weniger. Konzentration, Problemlösung und kreative Prozesse seien signifikant reduziert. Während die Zeitersparnis gleichzeitig gering bleibt. Die Autor*innen sprechen von einer Art kognitiver Schuld („cognitive debt“). Das bedeutet eine kurzfristige Erleichterung, die langfristig aberzu geistiger Trägheit führen könne. Besonders kritisch: Viele Teilnehmende äußerten subjektiv, dass sie das Gefühl hatten, produktiver zu sein. Obwohl die objektiven Messdaten das Gegenteil belegten. Das für mich Wichtigste an der Studie ist nicht nur die Methodik, sondern die Deutung: Die Forscher*innen sehen in dieser Entwicklung kein bloßes Tool-Problem, sondern eine Herausforderung an unser Verständnis von Lernen, Denken und geistiger Arbeit insgesamt. Wenn „effizient schreiben“ bedeutet, möglichst wenig nachzudenken, droht eine Kulturtechnik zu verkümmern, die für kritische Urteilskraft zentral ist. Und die dramatischen Folgen können wir wohl kaum abschätzen.
🤔 Warum lesen?
Weil diese Studie nüchtern und evidenzbasiert zeigt, dass KI nicht nur Texte produziert, sondern unsere Denkprozesse umformt. Subtil aber tiefgreifend. Und weil sie eine Frage stellt, die weit über das Bildungssystem hinausweist: Wollen wir Maschinen, die uns effizienter machen? Oder Systeme, die uns helfen, selbst zu denken? Wir scheinen hier gerade in die falsche Richtung zu gehen.
Third-party evaluators perceive AI as more compassionate than expert humans.
Studie, gefunden bei nature.com - von Dariya Ovsyannikova, Victoria Oldemburgo de Mello and Michael Inzlicht
🧠 Einordnung: Diese aktuelle Studie liefert eine ebenso überraschende wie sehr verstörende Erkenntnis: In vier Experimenten mit insgesamt 556 Teilnehmenden wurden KI-generierte Antworten (auf Basis GPT-4) durchweg als mitfühlender, verständnisvoller und fürsorglicher wahrgenommen als die von menschlichen Expert*innen. Darunter befanden sich sogar ausgebildete Krisenhelfer*innen. Und das selbst dann, wenn klar war, dass die Antwort von einer Maschine stammt. Der Grund: KI-Antworten seien konsistent, höflich, validierend, gut formuliert. Und damit frei von emotionaler Erschöpfung, Zeitdruck oder psychischer Reibung. Was hier entsteht, ist eine Art empathische Perfektion, die auf viele Menschen offensichtlich nicht nur ausreichend, sondern geradezu wünschenswert wirkt. Die Studie legt nahe, dass in bestimmten Kontexten – etwa psychologischer Beratung, Kundenservice oder Bildung – KI tatsächlich als emotionaler angenehmer erlebt wird als das echte Gegenüber.
Doch genau hier beginnt das Problem: Was die Studie misst, ist nämlich nicht Empathie. Es ist ihre Simulation. Und die funktioniert so gut, weil wir uns längst an ein sprachliches Klima gewöhnt haben, das von gefälligen Floskeln, Emotional Design und hübsch verpackten Rückmeldungen geprägt ist. Es ist wie ein sprachliches Wettrüsten, in dem echte Nähe durch perfekte Verpackung ersetzt wird. KI ist darin offensichtlich überlegen. Aber nicht, weil sie fühlt, sondern weil sie besser performt, was wir für Empathie halten.
🤔 Warum lesen?
Weil diese Studie ein wichtiges gesellschaftliches Paradox offenlegt: Die Maschine simuliert Nähe besser, weil echte Kommunikation längst unter Druck steht. Unter Druck durch Zeitmangel, emotionale Erschöpfung, Überforderung. Die Studie zeigt: KI kann Menschen in ihrer Empathiewahrnehmung übertreffen. Damit zwingt sie uns auch, nachzudenken, was wir eigentlich erwarten, wenn wir Mitgefühl suchen. Ich habe nur die Befürchtung, dass wir uns das als Gesellschaft nicht gönnen werden. So wie viele der anderen Reflexionen die durch die Empfehlungen in dieser Ausgabe aufgeworfen werden auch.
Philosophy Eats AI
gelesen bei MIT Sloan Management Review - von Michael Schrage and David Kiron
🧠 Einordnung: In diesem klugen Essay wird das berühmte Andreessen-Diktum („Software is eating the world“) weiter gedreht. Denn wenn Software die Welt „frisst” und KI die Software, dann sei Philosophie dabei, die KI zu verschlingen. Der Punkt: Wer heute strategisch mit KI arbeiten wolle, müsse nicht nur über Daten, Modelle oder Regulation sprechen, sondern über Teleologie, Ontologie und Epistemologie. Also: Was ist der Zweck der KI? Welches Weltbild liegt ihr zugrunde? Was gilt überhaupt als Wissen? Das ist kein abgehobenes Gedankenspiel, sondern eine strategische These mit praktischen Konsequenzen. Anhand von Beispielen wie dem Google-Gemini-Debakel (diversitätsoptimierte, aber historisch falsche Bilder), Amazon Prime oder Starbucks zeigen die Autoren, dass Unternehmen ohne klares philosophisches Fundament riskieren, Fehlentwicklungen nicht zu erkennen. Oder gar von falschen Prämissen ausgehen. Besonders deutlich werde das bei der „Kundenloyalität“: Viele Firmen würden sie über Net Promoter Scores oder Transaktionshäufigkeit messen. Doch was sei Loyalität eigentlich? Und wie könne KI sie gestalten, anstatt nur nachbilden? Die Autoren argumentieren, dass erst durch bewusste philosophische Rahmung – etwa durch Konzepte wie Reziprozität, Selbstverständnis oder Systemdenken – KI strategisch wirksam werde. Was Schrage und Kiron also fordern, ist nichts weniger als eine Neuausrichtung von KI-Entwicklung und Anwendung auf philosophischer Grundlage. Wer Agentic AI – also Systeme mit eigenständigem Zielverständnis und Handlungskompetenz – will, müsse ihr beibringen, was „Zweck“, „Verantwortung“ oder „Vertrauen“ überhaupt bedeuten. Das heißt: KI braucht mehr als Daten. Sie braucht Denkräume. Nicht als Ethik-Compliance-Check, sondern als strukturelles Trainingsfundament. Philosophie nicht als Alibi, sondern als Architektur.
🤔 Warum lesen?
Weil dieser Text zeigt, dass echte KI-Strategie nicht nur in Parametern, Modellen oder Governance besteht. Sondern in der bewussten Auswahl von Denkrahmen. Wer heute KI baut oder einsetzt, trifft damit auch immer eine philosophische Entscheidung. Die Frage ist nur: Wird sie absichtsvoll getroffen?
Demis Hassabis Thinks AI Will Make Humans Less Selfish
gelesen bei Wired - von Steven Levy
🧠 Einordnung: Ich packe diesen Text, dieses Interview an die Schnittstelle zwischen diesen Abschnitt („KI & Gesellschaft/Menschen”) und den nächsten („KI (Industrie) intern”). Denn hier geht es ganz besonders um gesellschaftliche Auswirkungen von KI. Es spricht aber eine der schillernden Persönlichkeiten und Lenker der Industrie: Demis Hassabis, Chef von Google DeepMind und leitender Architekt von Googles KI-Ambitionen.
In diesem ausführlichen Wired-Interview zeichnet er ein techno-utopisches Bild der Zukunft. KI – insbesondere AGI – könne nicht nur wissenschaftliche und medizinische Durchbrüche liefern, sondern auch den menschlichen Charakter transformieren. Wenn Maschinen für „radikalen Überfluss“ (Abundance… diesem Thema werde ich demnächst mal eine eigene Ausgabe widmen) sorgen werden – etwa durch unerschöpfliche Energie oder neue Medikamente – dann werde sich auch unser Denken ändern. Weg vom Nullsummenspiel, hin zu Kooperation und Altruismus. So die Hoffnung.
Zusätzlich entwirft Hassabis eine science-fictionhafte Vision: Ab 2030 könnten wir beginnen, die Galaxie zu kolonisieren. Möglich gemacht durch AGI-basierte wissenschaftliche Sprünge. Gleichzeitig zieht er (symbolisch) eine Grenze: Pflege durch empathische Menschen – etwa in der Kranken- oder Altenpflege – sei etwas, das Maschinen nicht übernehmen sollten. Das sei „besonders menschlich“. Man spürt: Selbst in seiner radikal optimistischen Erzählung gibt es kleine Restzonen des Unverfügbaren. Doch bei aller intellektuellen Brillanz und visionären Kraft wirkt Hassabis’ Blick auf die gesellschaftlichen Nebenwirkungen für mich oft bemerkenswert technikgläubig. Dass KI in den nächsten Jahren Millionen Jobs transformieren oder ersetzen könnte, erkennt er an. Aber er formuliert es im Ton eines unvermeidlichen Strukturwandels. Kritische Fragen nach Verteilungsgerechtigkeit, Machtkonzentration oder sozialer Absicherung beantwortet er mit dem Verweis auf eine kommende neue Wirtschaftsordnung. Sobald AGI da sei. Yeah, right. Auch sein Vertrauen in „die Wissenschaft“ und „smarte Regulierung“ bleibt für mich vage. Konkrete politische Verantwortung spielt in seinem Denken offensichtlich kaum eine Rolle. Dieses Interview zeigt einen Menschen, der mit hoher Ernsthaftigkeit an die Lösung fundamentaler Probleme glaubt. Aber auch einen Menschen, der tief im Wettbewerbs- und Fortschrittsdenken des Silicon Valley verwurzelt ist. Dass ausgerechnet jene KI-Systeme, die reale Risiken erzeugen, am Ende auch deren Lösung sein sollen, schafft eine offene Frage, die Hassabis nur mit: „Ich hoffe es“ beantwortet.
🤔 Warum lesen?
Weil dieses Gespräch einen der mächtigsten Architekten der KI-Gegenwart zeigt – und dabei exemplarisch für die Spannung steht, in der sich die Branche bewegt. Nämlich zwischen Erkenntnisdrang und Erlösungsfantasie, zwischen Machbarkeit und Machtblindenfleck. Halte mal diesen Gedanken … denn nachher gibt es noch einen Text von Sam Altman, den man ebenfalls in diesem Fahrwasser anschauen muss.
KI (Industrie) “intern”
Dieser Abschnitt blickt in das Innenleben der KI-Industrie. Mit einem Fokus auf Selbstverständnis, Ethik, wirtschaftliche Machtinteressen und Ideologien. Sie reicht von Nick Cleggs bemerkenswerter Aussage, dass Urheberrechte die Branche gefährden würden, bis zu der Frage, ob Prompt Engineering bald schon obsolet ist. Ich blicke auf die viel diskutierte Apple-Studie, die das Denken von LLMs entzaubern will. Und ich schließe mit Sam Altmans neuem Essay zur „sanften Singularität“, der zeigt, wie sich Macht und Visionen in dieser Branche inszenieren. Wer sich fragt, wie die Industrie tickt, findet hier reichlich Material zur Selbstverortung. Und zur kritischen Einordnung.
Nick Clegg says asking artists for use permission would ‘kill’ the AI industry
gelesen bei The Verge - von Mia Sato
🧠 Einordnung: Bei einem öffentlichen Auftritt in London hat Nick Clegg – Ex-UK-Vizepremier und früherer Head of Global Affairs bei Meta – einen klaren Standpunkt zur Urheberrechtsdebatte in der KI-Industrie formuliert. Einen sehr problematischen, wie ich finde. Er sagte, wer verlange, dass Künstler*innen vorab um Erlaubnis gebeten werden müssten, wenn ihre Werke für das Training von KI-Modellen genutzt werden sollen, „würde die britische KI-Industrie über Nacht zerstören“. Wow! Cleggs Aussagen fallen in einen kritischen politischen Moment: Im Vereinigten Königreich wird derzeit über einen Zusatz zum Data (Use and Access) Bill debattiert, der Unternehmen zur Offenlegung verwendeter urheberrechtlich geschützter Werke verpflichten soll. Prominente Stimmen wie Paul McCartney, Dua Lipa und Elton John unterstützen die Initiative. Sie fordern mehr Transparenz. Nicht, um Innovation zu verhindern, sondern um Copyright geltend machen zu können, bevor Werke in Blackbox-Systeme wandern. Clegg wiederum argumentiert mit praktischer Unmöglichkeit: Man könne unmöglich vorab alle Rechteinhaber*innen kontaktieren. Die Systeme bräuchten große Mengen Daten, und der globale Wettbewerb dulde keine britische Sonderlösung. In seiner Argumentation schwingt eine Haltung mit, die Zweckmäßigkeit über Grundrechte stellt. Die Kritik daran ist nicht nur juristisch. Sie ist auch kulturell. Was ist das für eine Industrie, die auf dem freien Zugriff auf geistige Arbeit basiert, aber Transparenz als Innovationshemmnis betrachtet?
🤔 Warum lesen?
Weil diese Geschichte deutlich macht, wie stark wirtschaftliches Eigeninteresse, politische Einflussnahme und kreative Rechte derzeit aufeinanderprallen. Und weil sie zeigt, wie sich die Frage verschiebt: Nicht ob KI mit fremder Arbeit lernt. Sondern ob es legitim ist, dafür keine Erlaubnis einzuholen. Die Diskussion um Trainingsdaten ist längst keine technische, sondern eine demokratische. Wir laufen hier gerade in keine gute Richtung. Und ich finde, wir müssen mehr über die Details wissen, was die Menschen dahinter so denken und machen.
‘AI is already eating its own’: Prompt engineering is quickly going extinct
gelesen bei Fast Company - von Henry Chandonnet
🧠 Einordnung: Prompt Engineering galt seit dem Aufkommen des GenAI-Hypes als das nächste große Ding: ein Türöffner für Nicht-Techniker*innen, ein neuer Berufszweig für das KI-Zeitalter. Heute, nur wenig mehr als zwei Jahre später, fragen sich viele wieder, ob diese Blase platzt. Henry Chandonnet zeigt auf, wie sich das einst heiß diskutierte Jobprofil inzwischen entweder in andere Rollen aufgelöst hat (z. B. Machine Learning Engineer, Automation Architect) oder schlicht nie in dem Ausmaß existierte, wie es auf LinkedIn suggeriert wird. Was laut Chandonnet geblieben ist: Prompting als Fähigkeit, nicht als Beruf. Eine Kompetenz, die sich heute quer durch viele Tätigkeiten zieht. Vom Marketing über HR bis zur Softwareentwicklung. Und was auch nicht unterschätzt werden sollte: KI selbst beginnt längst, die besten Prompts zu schreiben. Wird Prompting also automatisiert, bevor es je standardisiert wurde? Das bringt mich zurück zu einer alten, immer wieder neu aufgeworfenen Frage: Wird Prompt Literacy – also die Fähigkeit, mit Maschinen effektiv zu kommunizieren – zu einer Schlüsselqualifikation unserer Zeit? Oder ist das nur eine Übergangserscheinung, die sich durch bessere Interfaces, Agenten und Automatisierung bald erledigt haben wird? Die Antwort schwankt. Und sie hängt davon ab, was wir unter „Mensch-Maschine-Kompetenz“ verstehen. Ein universelles Bildungsziel? Oder nur ein temporäres Skillset für die Early Adopter? Dieser Text jedenfalls zeigt deutlich: Was eben noch als Job galt, scheint gerade nur noch ein Tool zu sein. Oder wie es einer der Interviewten formuliert: „Prompt Engineering has become something embedded in almost every role.“
🤔 Warum lesen?
Weil dieser Text beispielhaft erzählt, wie schnell sich die Narrative in der KI-Industrie verschieben, und wie dünn manchmal die Trennlinie ist zwischen Zukunftsberuf und Marketing-Mythos. Und weil er die viel größere Frage berührt: Wie sprechen wir eigentlich mit einer Technologie, die bald gar keine Prompts mehr von uns braucht?
The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
gelesen bei Apple Machine Learning - von Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio und Mehrdad Farajtabar
🧠 Einordnung: Diese Studie darf natürlich in dieser Ausgabe nicht fehlen. Sie war Apples lautester Auftritt in der Welt der Large Language Models. Zumindest auf dem Papier. Diese „Apple KI-Studie”, veröffentlicht kurz vor der neulich stattgefundenen World Wide Developers’ Conference und begleitet von viel Buzz auf X, Reddit, Hacker News & Co., war für viele Beobachter*innen eine strategische Rauchbombe: Ein Versuch, theoretische Tiefenschärfe zu demonstrieren, während Apple gleichzeitig mit einer eher blassen öffentlichen Performance im KI-Wettrennen zu kämpfen hatte. Tatsächlich liefert die Studie ein anspruchsvolles Framework, um die Schwächen aktueller LLMs in Bezug auf reasoning (also mehrstufiges, problemadaptives Denken) zu analysieren. Die zentrale These: Was wie „Denken“ aussieht, sei oft nur statistische Mustererkennung mit begrenzter Tiefe. Selbst große Modelle scheiterten systematisch an Aufgaben mit hoher struktureller Komplexität, die ein inneres Weltmodell oder konsistentes logisches Schließen erfordern.
Kern-Erkenntnisse der Studie:
Problemkomplexität ist entscheidend: Apple führt das Konzept der Problem Difficulty Functions (PDFs) ein, um Aufgaben nicht nur nach Thema, sondern nach kognitiver Strukturkomplexität zu bewerten.
Current SoTA-LLMs sind „flach“: Selbst hochperformante Modelle wie GPT-4 oder Claude-2 performten bei einfachen Aufgaben gut, versagten aber disproportional bei Aufgaben mit komplexem Inferenzbedarf. Selbst wenn der Output formal korrekt aussehen mag.
Scale alone won’t solve it: Größere Modelle helfen nicht automatisch gegen strukturelle Schwächen. Was Apple als Argument für neue Trainingsansätze (z. B. „Reasoning Curriculum Learning“) nutzt.
Illusion der Generalität: Apple kritisiert, dass Benchmark-Erfolge oft überinterpretieren, wie „allgemein“ ein Modell wirklich denken kann. Viele Benchmarks seien nicht granular genug im Hinblick auf Aufgabenschwierigkeit.
Empirischer Beleg für Reasoning-Plateaus: Durch systematisches Schwierigkeitsgradding konnten die Forschenden zeigen, dass Modelle bereits bei vergleichsweise „einfachen“ logischen Sprüngen versagen, trotz hoher Performance in Standardbenchmarks.
Doch bei aller Substanz wird die Studie wie gesagt auch als Ablenkungsmanöver gelesen. Und zwar von dem, was Apple bisher nicht geliefert hat: ein konkurrenzfähiges LLM oder ein öffentlich zugängliches Produkt mit echtem reasoning-Potenzial.
Ich habe hier ein paar Beiträge gesammelt, die sich kritisch mit der Apple Studie auseinandersetzen und sie challengen:
Has Apple proven that large language models are incapable of logical reasoning? (von Joakim Edin)
Edin argumentiert, dass die Apple-Studie zwar interessante Schwächen aufzeige, aber alternative Erklärungen – etwa, dass LLMs manchmal fehlerhaft, aber nicht grundsätzlich unfähig sind – zu wenig berücksichtigt würden. Er sieht die Studie eher als Beleg für gelegentliche Fehler im Reasoning, nicht für ein fundamentales UnvermögenApple's AI Reasoning Study Challenged: New Research Questions "Thinking Collapse" Claims (von Rahul Dogra)
Diese vielzitierte Replik nimmt die Methodik der Apple-Studie auseinander. Besonders wird kritisiert, dass Apple bei den River Crossing Puzzles mathematisch unlösbare Aufgaben gestellt und die daraus resultierenden „Fehler" der Modelle als Beweis für deren Unfähigkeit gewertet habe. LLMs würden bei sinnvoller Aufgabenstellung und alternativen Antwortformaten (z.B. Algorithmus statt Move-by-Move-Lösung) aber sehr wohl komplexe Probleme lösen können. Dogra fordert ein Umdenken bei der Bewertung von Reasoning-Fähigkeiten und warnen vor Fehlinterpretationen durch schlechte Testdesigns.
Wertvoll fand ich auch diese Einschätzung von Ethan Mollick, ein must-follow KI-Experte und Professor an der Wharton School (Co-Director des Generative AI Labs):
Every call I have had this week has had someone ask a question about the Apple paper on the limits of AI reasoning. The Apple paper is a fine paper whose conclusions are being vastly overstated, but this pattern happens over and over again any time there is an "AI must soon fail" story: model collapse, the fake "Samsung's data got stolen" story, etc. I think its worth reflecting on why these sorts of papers get so much buzz while the many more "AI does this well" or "Here is a way to improve LLMs" papers do not.
I think people are looking for a reason to not have to deal with what AI can do today, and what it might be able to do in the future. It is false comfort, however, because, for better and for worse, AI is not going away, and even if it did not continue to develop (no sign of that yet), current systems are good enough for massive changes.
Und ich glaube, da ist was dran. Kaum ein Themenfeld hält so viel negatives und positives gleichzeitig für uns bereit. Und ich glaube, das ist es auch, was durch die Auswahl der Empfehlungen in dieser Ausgabe deutlich wird. Wir haben es mit einer Technologie zu tun, die - wenn richtig designed und eingesetzt - so viele Dinge für uns Menschen gut und zum Besseren erledigen und wendenkönnte. Aber es handelt sich auch auch eine Technologie, die so viel Hype und Goldgräberstimmung erzeugt, dass die vielen AI-Snake-Oil-Verkäufer (Gendern eigentlich nicht nötig…) noch das geringste Problem sind. Es sind in meinen Augen eher die Tech-Executives, die an den ganz großen Hebeln der Macht sitzen. Und die in den letzten Jahren auf atemberaubende Weise Vertrauen verspielt haben. Und dies immer noch weiter tun. Deswegen verstehe ich diese kontroversen Debatten und emotionalen Befindlichkeiten. Sie sind wichtig. Ein Korrektiv für eine so wirkmächtige Technologie ist nötig und wichtig.
Und wo ich über die Tech-Executives spreche, darf ein Text aus diesem Monat nicht fehlen:
The Gentle Singularity
von Sam Altman
🧠 Einordnung: Sam Altman, CEO von OpenAI, formuliert in diesem neuen Essay eine Vision der nahen Zukunft, wie sie euphorischer und - so sehe ich das - zugleich entkoppelter von sozialen Realitäten kaum sein könnte. Der Text liest sich wie ein Manifest aus dem Maschinenraum des Fortschritts. Er ist durchzogen von techno-ökonomischer Zuversicht. Er ist aber auch in weiten Teilen blind für gesellschaftliche Brüche, Abhängigkeiten und Machtasymmetrien, die diese Zukunft mit sich bringt.
Altman beschreibt die kommenden Jahre als eine Phase exponentieller Entgrenzung: Intelligenz werde bald „zu billig, um sie zu zählen“, Roboter würden Roboter bauen, Datacenter sich selbst replizieren. Die Menschheit, so seine Hoffnung, werde auf dieser Welle reiten. Inspiriert von neuen Jobs, neuen Ideen, neuer Fülle. Ganze Berufsgruppen würden verschwinden. Aber die Welt werde so reich, dass wir neue Sozialverträge andenken könnten. Ein Satz, der nicht nach Gerechtigkeit und authentischer Überzeugung für die Realisierung von Gemeinwohl klingt.
Am deutlichsten wird Altmans Haltung in einem Absatz, der exemplarisch steht für sein Menschenbild:
The rate of technological progress will keep accelerating, and it will continue to be the case that people are capable of adapting to almost anything. There will be very hard parts like whole classes of jobs going away, but on the other hand the world will be getting so much richer so quickly that we’ll be able to seriously entertain new policy ideas we never could before. We probably won’t adopt a new social contract all at once, but when we look back in a few decades, the gradual changes will have amounted to something big. […]
A subsistence farmer from a thousand years ago would look at what many of us do and say we have fake jobs, and think that we are just playing games to entertain ourselves since we have plenty of food and unimaginable luxuries. I hope we will look at the jobs a thousand years in the future and think they are very fake jobs, and I have no doubt they will feel incredibly important and satisfying to the people doing them.
Was als distanzierter Zukunftsblick daherkommt, ist für mich in Wahrheit ein Akt normativer Entwertung: Wenn die Maßstäbe für Arbeit, Sinn und gesellschaftliche Teilhabe vollständig technologisch verschoben werden, stellt sich die Frage: Für wen ist diese Zukunft eigentlich gemacht?
Altman nennt Herausforderungen: Sicherheit, Alignment, Zugangsgerechtigkeit. Aber sie bleiben vage – eingebettet in einen Fortschrittsnarrativ, das davon ausgeht, dass die Menschheit „sich schon irgendwie anpassen wird“. Sein Vertrauen liegt nicht in der sozialen Infrastruktur, sondern im Innovationswillen der Märkte. Seine Antwort auf Systemfragen lautet: „People adapt. Society is resilient.“ Was für ein Satz, wenn man ihn aus der Perspektive derjenigen liest, die schon heute an den Rändern des Systems leben. Auch und vor allem in der Silicon Valley HQ-Stadt San Francisco selbst. (Lesetipp) Wie glaubwürdig ist ein Mann, der vom nahenden Zeitalter des Überflusses spricht… in einer Stadt, in der Reichtum und Verelendung Tür an Tür wohnen? Dessen Unternehmen auf hochproblematischer Intransparenz basiert? Und der gleichzeitig vorgibt, die Zukunft der Menschheit zu sichern?
🤔 Warum lesen?
Weil dieser Text zeigt, wie sich eine ganze Branche selbst mythologisiert, und dabei Werte, Verantwortung und Verteilung gerne ins Post-Singularitäts-Paradies verschiebt. Altmans sanfte Singularität ist für mich kein Dystopie-Schocker. Sie ist der freundliche Totalitarismus einer Welt, die alles weiß, alles kann, und alles verspricht. Nur nicht für alle.
Schwingt bei dir in der Magengegend auch ein schlechtes Gefühl mit, wenn du sowas liest von einem so hyper-privilegierten Menschen? Insgesamt sagen bestimmt viele Menschen, die diesen Essay lesen, dass Altmans Worte doch teils super klingen, oder? Eine goldene Zukunft, dank KI. Aber eben für wen? Wir müssen diese Frage immer stellen. Ich arbeite gerade ein einem umfangreichen und neuen Deep-Dive zur Ideologie von Big Tech, den Tech-Bros, der Tech-Broligarchie, welches eine Seite aufzeigt, die wir bei diesen Menschen unbedingt anschauen und berücksichtigen müssen. Wenn ich mir seinen „The Gentle Singularity” Essay anschaue muss ich sagen: Ich habe Fragen - viel mehr Fragen als ich an dieser Stelle jetzt ausbreiten könnte… aber dazu gibt es wie gesagt bald mehr.
So long…
Diese Ausgabe hatte vieles im Gepäck: Arbeitswelt und Verwaltung im Umbruch, ein Bildungssystem zwischen Überforderung und Kontrollwahn, Menschen auf der Suche nach Nähe. Und eine KI-Industrie, die gleichzeitig auf Tempo, Macht und Erzählung setzt.
Die Texte zeigen für mich auf sehr unterschiedliche Weise, wie tief KI inzwischen in Prozesse, Beziehungen und Selbstbilder eingreift. Und wie wichtig es ist, die Technologie nicht nur technisch, sondern auch gesellschaftlich mitzudenken. Ich weiß, ich wiederhole mich hier. Aber ich hoffe, die Wiederholung macht den Effekt. Das ist alles viel zu wichtig, um es nur oberflächlich oder beiläufig anzuschauen.
Und das war hoffentlich ein gutes Paket, um das tun zu können. Um dranzubleiben. Bleib’ mit dran! Danke für deine Aufmerksamkeit!
Das war es für heute. Bitte leite oder empfiehl meinen Newsletter doch gerne weiter ➡️ ✉️ - das würde mir sehr helfen. Danke euch für die Aufmerksamkeit und bis zum nächsten Mal!