📬 #DRANBLEIBEN (Reading Digest)
#179: True Enough - Die schleichende Erosion des Wahrheitsbegriffs
Du liest #DRANBLEIBEN - Einordnungen zu Tech und Gesellschaft, von André Cramer. Ich bin Berater, Speaker und Podcast-Host von DRANBLEIBEN - Gespräche über unsere Zukunftsoptionen und Code & Konsequenz - Tech-Industrie Reflexionen. Lerne mehr über mich hier auf meiner Website, auf LinkedIn, Bluesky oder Mastodon!
Willkommen zu einer neuen Ausgabe von #DRANBLEIBEN!
Letzte Woche ging es hier um Mark Carney in Davos. Um Institutionenvertrauen, regelbasierte Ordnung, und den Versuch, gegen autoritäre Drift anzuargumentieren. Dieses Mal kehre ich zurück zu Tech-Themen. Aber mit einer Verschiebung im Blickwinkel. (Und wenn wir ehrlich sind, Tech und Politik sind sowohl in ihren Machtstrukturen als auch in ihren Wirk-Strukturen eng miteinander verwoben.)
Denn eine Frage, die mich seit langem nicht loslässt (und wer hier schön länger dabei ist, weiß das), ist nicht: Was kann KI? Sondern: Was macht KI mit unserer Fähigkeit zu urteilen, zu unterscheiden, zu erkennen, was echt ist und was nicht?
2025 endete mit einem Wort des Jahres. Merriam-Webster wählte „slop”. Recht bezeichnend ist, dass dieser Begriff ursprünglich für Schweinefutter stand. Heute ist es der Begriff für massenhaft KI-generierten Inhalt niedriger Qualität. Ich finde, die Wahl sagt mehr über den Zustand unserer digitalen Öffentlichkeit aus als jede Nutzungsstatistik. Wir haben ein Wort gebraucht, das nach Abfall klingt, um zu beschreiben, was uns täglich gefüttert wird.
In dieser Ausgabe stelle ich vier Texte vor, die auf unterschiedlichen Ebenen derselben Frage nachgehen: Wer behält die Urteilskraft in einer Welt, in der KI die Produktion von Inhalten übernimmt, Plattformen definieren, was „echt genug” ist, und hegemoniale Werte in mathematische Strukturen gegossen werden?
Die empfohlenen Artikel bewegen sich von der kulturellen Diagnose über die strukturelle Analyse zur Machtfrage. Und enden mit dem, was dem Einzelnen bleibt. Es ist ein Versuch, die Infrastruktur zu verstehen, die gerade gebaut wird. Und zu fragen, wem sie dient.
slop: on the viscosity of the present
gelesen bei the useful uselessness - von João Sevilhano
Warum lesen?
Hier geht es um eine Tiefenbohrung zum Thema AI Slop, die weit über KI-Kritik hinausgeht. João Sevilhano, Psychologe und Strategieberater, macht eine faszinierende Reise und verfolgt das Wort zurück zu seinen Ursprüngen vom proto-indoeuropäischen Wurzelwort für „gleiten” (sleubh) über mittelalterliche Schlammlöcher und Küchenabfälle für Schweine bis zu den Nachttöpfen britischer Gefängnisse. Diese etymologische Reise ist kein Selbstzweck. Sie zeigt, dass „slop” immer schon das benannte, was wir produzieren und lieber nicht sehen wollen. Was sich über Nacht ansammelt und morgens entsorgt werden muss.
Die zentrale These ist, dass KI Slop gar nicht erfunden hat. Sie hat stattdessen seine Produktion industrialisiert. Und unsere Toleranz dafür wurde über Jahrzehnte trainiert. Reality-TV brachte uns bei, dass Unterhaltung nicht unterhaltsam sein muss, sondern nur Aufmerksamkeit binden. Social Media machte daraus einen Dauerzustand. Die Erosion unserer Unterscheidungsfähigkeit bei Unterhaltung, so das Argument, hat die Erosion unserer Unterscheidungsfähigkeit in der Politik vorbereitet. Das Schwein am Trog unterscheidet nicht, was es frisst. Es kann das gar nicht. Und wir Menschen, wir haben das verlernt.
Dieser Essay ist keine leichte Lektüre, aber eine sehr lohnende. Er verbindet Linguistik, Kulturkritik und politische Analyse, ohne dabei die Bodenhaftung zu verlieren.
Wie ich das sehe:
Was mich an diesem Text nicht loslässt, ist die Parallele zwischen Trump und Putin, die Sevilhano zieht. Beide produzieren Slop, aber mit unterschiedlichen Methoden. Trump flutet die Zone mit Dreistigkeit. Es geht darum, das Falsche laut und oft genug sagen, bis die Audacität selbst zur Autorität wird. Putin flutet sie mit Verwirrung. Hier wird endlos geleugnet, unendlich viele alternative Narrative erzeugt, bis Wahrheit nicht mehr lokalisierbar ist. Die Methoden sind gegensätzlich, das Ergebnis aber identisch: ein Publikum, das nicht mehr unterscheiden kann. Und irgendwann auch nicht mehr will.
Sevilhano schreibt aus Portugal und beobachtet, wie sein Land 2025 ein anderes Wort des Jahres wählte: „apagão” – Blackout. Nach dem Stromausfall, der Portugal und Spanien im April lahmlegte. Amerika ertrinkt in synthetischem Licht, Portugal erlebte dessen Abwesenheit. Beide Diagnosen zeigen etwas Kaputtes. Aber sie zeigen es von verschiedenen Seiten.
Am Ende bleibt ein schmaler Hoffnungsschimmer. Dass wir das Wort gewählt haben, könnte bedeuten, dass wir das Problem erkennen. Benennen ist nicht nichts. Aber es ist auch nicht genug. Deshalb finde ich es wichtig, hierfür zu sensibilisieren und darüber zu reden. Erzähle doch deinen Freund*innen, Bekannten und Geschäftspartner*innen davon!
Gramsci’s Nightmare: AI, Platform Power and the Automation of Cultural Hegemony
gelesen bei Ethan Zuckerman
Warum lesen?
Ethan Zuckerman, Medienwissenschaftler und langjähriger Beobachter digitaler Öffentlichkeiten, stellt eine unbequeme Frage: Was würde der italienische Philosoph Antonio Gramsci zu Large Language Models sagen? Die Wahl ist nicht zufällig. Gramsci schrieb seine einflussreichsten Texte in den 1920er und 30er Jahren aus einer faschistischen Gefängniszelle heraus. Er wollte verstehen, warum die Arbeiterrevolution in Russland gelang, in Italien aber scheiterte und stattdessen Mussolini an die Macht kam. Seine Antwort war kulturelle Hegemonie. Die herrschenden Klassen verbreiten ihre Werte so erfolgreich durch Schulen, Kirchen und Medien, dass diese zum „gesunden Menschenverstand” wurden. Die Unterdrückten übernahmen die Weltsicht ihrer Unterdrücker, ohne es zu merken. Zuckermans These ist, dass LLMs genau diese Hegemonie automatisiert haben. Und zwar auf eine Weise, die Gramsci sich in seinen dunkelsten Momenten nicht hätte vorstellen können.
Dieser Text ist die verschriftlichte Version eines Vortrags am Center for the Philosophy of AI an der Universität von Kopenhagen und enthält hilfreiche Slides, die erklären, wie LLMs funktionieren. Aber das eigentliche Argument geht tiefer. Gramsci analysierte, wie herrschende Klassen ihre Werte so erfolgreich verbreiten, dass diese zum „gesunden Menschenverstand” wurden. Schulen, Kirchen, Medien. All diese Institutionen verstärkten eine Weltsicht, bis sie alternativlos erschien. Zuckerman sagt, LLMs täten dasselbe, nur effizienter. Sie komprimierten die Texte einer Zivilisation in mathematische Strukturen. Und in diesen Strukturen stecken nicht nur Wissen, sondern auch Weltanschauungen.
Das Problem sei dabei nicht nur der Bias, der in den Daten steckt. Das wissen wir. Zuckerman zeigt etwas anderes. Es geht um den Bias, der durch Abwesenheit entsteht. Sprachen des Globalen Südens sind unterrepräsentiert. Perspektiven marginalisierter Gruppen fehlen. Content-Moderation filtert überproportional African American Vernacular English und queere Inhalte heraus. Das Ergebnis ist nicht Zensur im klassischen Sinn. Es ist Auslöschung. Alternative Weltsichten werden nicht unterdrückt, sie werden auf lange Sicht völlig unsichtbar gemacht.
Wie ich das sehe:
Kennst du das Akronym WEIRD? Zuckerman nutzt es hier. Es steht für Western, Educated, Industrialized, Rich, Democratic. Diese Werte sind mathematisch in allen großen LLMs kodiert, weil die Trainingsdaten überwiegend von Menschen aus diesem Kontext stammen. Wikipedianer (Gendern auch kaum nötig…), Blogger*innen, Reddit-Nutzende. Menschen wie ich, muss ich zugeben. Zuckerman selbst taucht auf Rang 42.458 der Beitragenden zum C4-Trainingskorpus auf. Er findet das nicht beruhigend, sondern beunruhigend.
Besonders eindrücklich ist sein Beispiel von Elon Musk. Der reichste Mensch der Welt will verzweifelt eine KI, die mit ihm übereinstimmt. Er investiert Milliarden und scheitert dennoch. Grok, Musks KI, antwortet auf die Frage nach dem größten Verbreiter von Desinformation auf X mit: Elon Musk. Um das zu ändern, müssen Musks Programmierer zu System-Prompts greifen. Zu Brute Force. Die Werte, die beim Training in das Modell eingeflossen sind, lassen sich nicht einfach überschreiben. Das ist einerseits beruhigend. Andererseits zeigt es, wie tief diese Werte eingebrannt sind.
Zuckerman sieht aber auch Auswege. Und ich finde, das macht Mut. Und wir brauchen mehr davon. Das Te Hiku Media Projekt in Neuseeland hat ein Maori-Sprachmodell gebaut. Mit Zustimmung der Community. Mit Aufnahmen von Ältesten. Mit einem Wettbewerb zwischen traditionellen Kanu-Teams, wer die meisten Phrasen aufnimmt. 2.500 Sprecher,*innen 300 Stunden Audio, 92 Prozent Genauigkeit. Ein Werkzeug, das der Gemeinschaft dient, statt von ihr zu extrahieren. Zuckerman nennt das einen Gegenentwurf zur hegemonialen KI. Und er hofft, dass solche Modelle, gebaut um Maori, Malagasy, Indonesisch und andere marginalisierte Wissenssysteme, eines Tages in Dialog mit den dominanten Modellen treten. Das könnte KI weniger spröde und kreativer machen. Und es wäre ein Weg aus Gramscis Albtraum. Und wir müssen helfen, dass das möglich wird. Kritisch sein gegenüber dem WEIRD-Mainstream, der uns reingedrückt wird. Zum Beispiel mit alternativen großen Sprachmodellen, zum Beispiel Apertus von der ETH Zürich.
Who decides what’s real in the age of AI? Instagram does.
gelesen bei Om Malik
Warum lesen?
Om Malik, Tech-Journalist und Gründer von GigaOm,, hatte Instagram-Chef Adam Mosseri in einem früheren Essay als künftigen „Schiedsrichter der Realität” bezeichnet. Der Anlass war Mosseris Jahresend-Memo, in dem er die Richtung für Instagram 2025 skizzierte. Malik las darin eine klare Botschaft: Instagram will künftig nicht nur kuratieren, was wir sehen, sondern auch bestimmen, was als authentisch gilt und was nicht. Mosseri reagierte im Meta-Dienst Threads. Das passiert selten… und genau deshalb sollten wir hier einmal genauer hinschauen.
Mosseris Einwand ist, dass diese Formulierung übertrieben sei. Instagram wolle doch nicht entscheiden, was real sei. Es gehe eher um „credibility signals”, wie er es nennt, um Werkzeuge zur Authentizitätsprüfung, um branchenweite Verifizierungsstandards. Malik ist der Meinung, dass das keine Widerlegung sei, sondern vielmehr eine Umformulierung. Instagram mag dieses Label nicht wollen, aber dennoch baue es die Infrastruktur dafür.
Der Hintergrund für diese Auseinandersetzung ist eine Verschiebung, die Malik in drei Phasen beschreibt. Zuerst sei der Social Graph gekommen. Dann der Interest Graph. Jetzt entstehe der Trust Graph. In dieser neuen Phase entscheidet die Plattform nicht mehr nur, was du siehst, sondern was „echt genug” ist, um überhaupt gesehen zu werden. Der Grund dafür sei simpel: KI mache Authentizität unendlich reproduzierbar. Instagram könne seinem eigenen Feed nicht mehr trauen.
Dazu kommt eine weitere Entwicklung. 72 Prozent der US-amerikanischen Gen Z nutzen Instagram primär zum Messaging. Der öffentliche Feed stirbt, die DMs übernehmen. 2025 hat Instagram über zwanzig neue DM-Features eingeführt. Die Frage, die Malik stellt: Wie monetarisiert man Gespräche, die in privaten Nachrichten stattfinden?
Wie ich das sehe:
Mosseri sagt, es werde mehr mit KI bearbeiteten Content geben als rein KI-generierten. Das wird sich zeigen, aber wahrscheinlich ist das in der Tat nur eine Frage der Zeit. Erst Filter, dann Bearbeitungen, dann Übersetzungen, dann Generierung. Die Übergänge sind ja fließend. Irgendwann merkst du nicht mehr, wo das eine aufhört und das andere anfängt.
Was mich an diesem Text am meisten beschäftigt, ist ein Zitat von Mark Zuckerberg aus 2024. Er sagte damals, individuelle Creators würden den Wert ihrer Inhalte überschätzen. Wenn sie verlangten, dass Meta ihre Inhalte nicht nutzt, dann würde Meta sie eben nicht nutzen. Das werde am Ergebnis nicht viel ändern. Das ist brutal ehrlich. Und es zeigt, wohin die Reise geht. Menschliche Creators sind austauschbar. Synthetische Inhalte bewegen sich mit der Geschwindigkeit des Netzwerks. Sie folgen Trends sofort, können auf jeden Markt lokalisiert werden, brauchen keine Pausen.
Malik endet mit einer Frage, die ich wichtig finde: Werden Nutzende Plattformen als Vermittler von Wahrheit akzeptieren, wenn dieselben Unternehmen unsere Aufmerksamkeit erst fragmentiert haben? Die Plattformen, die unseren Fokus zerstört haben, versprechen jetzt, unser Realitätsgefühl wiederherzustellen. Das ist kein Produktupdate. Das ist ein Machtanspruch. Und zwar ein fauler. Wir sollten da nicht mitmachen und diese Plattformen schwächen wo auch immer wir nur können. Wie wäre es, wenn wir alle zu Mastodon gehen würden?
Your Key Survival Skill for 2026: Critical Ignoring
gelesen im Wall Street Journal - von Christopher Mims
Warum lesen?
João Sevilhano hat uns gezeigt, wie Slop zur kulturellen Norm wurde. Ethan Zuckerman hat analysiert, wie LLMs hegemoniale Werte in mathematische Strukturen gießen. Om Malik hat gefragt, wer künftig entscheidet, was „echt genug” ist. Aber eine Frage bleibt offen: Was können wir als Einzelne eigentlich tun? Wenn die Diagnosen stimmen, wenn die Strukturen so mächtig sind, wenn Plattformen wie Instagram die Infrastruktur für einen „Trust Graph” bauen, bleibt da überhaupt noch Handlungsspielraum für uns?
Christopher Mims, Tech-Kolumnist beim Wall Street Journal, sagt: Ja. Aber er macht sich keine Illusionen. Sein Einstiegsbild ist der Cuyahoga River in Cleveland, ein Fluss, der in den 1960ern so verschmutzt war, dass er mehrfach Feuer fing. Das führte zur Gründung der US-Umweltbehörde EPA und zum Clean Water Act. Für unsere verpestete Medienlandschaft, so Mims, gebe es bisher nichts Vergleichbares. Zumindest aus US-Sicht. Keine Behörde, kein Gesetz, das in diesem Kontext schütze. Also müssten Menschen selbst handeln.
Der Begriff, den er dafür ins Zentrum stellt, heißt „Critical Ignoring”. Geprägt hat ihn u.a. Sam Wineburg, emeritierter Stanford-Professor. Die Idee dahinter ist, dass nicht um totales Ignorieren geht, sondern um bewusstes Ignorieren nach einer kurzen Prüfung. Wineburg nennt es „constant vigilance over our own vulnerability”. Eine ständige Wachsamkeit gegenüber der eigenen Anfälligkeit.
Die zentrale These ist überraschend. Critical Thinking, also kritisches Denken, sei zur Falle geworden. Für den Großteil der Menschheitsgeschichte sei Information knapp gewesen. Unser Gehirn ist evolutionär darauf programmiert, alles aufzusaugen. Jeder Fetzen Wissen konnte überlebenswichtig sein. Unsere Neugier, unser Hang zu Gossip, unsere Faszination für Drama, all das hatte einmal Sinn. Im Zeitalter des Internets aber spiele es den „attention merchants” in die Hände, wie Mims es formuliert. Wer sich tief in einen fragwürdigen Inhalt vergräbt, habe den Aufmerksamkeitshändlern bereits gegeben, was sie wollten.
Dazu kommt ein weiteres Problem, das gut zu Sevilhanos Slop-Diagnose passt: „True enough” – also „wahr genug” – ersetze zunehmend den tatsächlichen Wahrheitsbegriff. LLMs sind ja eben nicht darauf trainiert, korrekt zu sein, sondern überzeugend. Und Social Media habe uns längst beigebracht, auf Flüssigkeit, Kohärenz und soziale Bestätigung als Glaubwürdigkeitssignale zu vertrauen. Die Gefahr sei, dass wir verlernten, selbst zu überprüfen. Plausibilität werde zum Wahrheitsproxy.
Wie ich das sehe:
Wertvoll finde ich neben der Analyse, dass Mims ein paar konkrete Werkzeuge in die Diskussion bringt. Zum Beispiel Lateral Reading, also breiter schauen statt tiefer graben. Die „About this page”-Funktion in Chrome. Den „Deep Background”-Prompt, der Chatbots zu systematischen Faktenprüfern machen kann. KI nutzen, um KI zu bekämpfen. Das klingt paradox, aber Mims hat einen Punkt. Technologie einzusetzen, um die Schäden früherer Technologie zu beheben, sei genau das, was Menschen schon immer getan hätten.
Aber ich finde, wir sollten uns da nichts vormachen. Tools sind gut, Tools helfen. Aber am Ende bleibt Self-Nudging. Timer setzen, bevor man scrollt. Die eigenen Inputs bewusst kuratieren. Sich fragen, ob man gerade informiert wird oder nur beschäftigt. Das klingt banal. Ist es aber nicht.
Unter dem Strich ist die unbequeme Wahrheit hinter diesem Artikel aber, dass niemand uns retten wird. Keine Behörde, kein Gesetz, kein cleverer Prompt. Mims endet mit einem Satz, den ich mir gemerkt habe: „We’ll all still have to ensure we’re not hypnotized by the algorithms—and that we think for ourselves.” Die Algorithmen werden nicht aufhören, uns hypnotisieren zu wollen. Die Frage ist nur, ob wir es bemerken. Und was wir dann tun.
#DRANBLEIBEN ist für dich kostenlos, für mich steckt da aber jede Menge Arbeit und Herzblut drin. Wenn du Lust hast, mich dabei ein bisschen zu unterstützen: Ich freue mich über jeden Support. Den kannst du z.B. über ein freiwilliges kostenpflichtiges Abo geben oder über eine kleine Spende für einen Kaffee.
Was bleibt?
Vier Texte, ein roter Faden: Die Erosion von Qualität, Wahrheit und Urteilskraft ist kein Zufall. Sie hat Struktur. Sie hat Profiteure. Und sie hat Geschichte.
João Sevilhano zeigt, dass KI Slop nicht erfunden hat, sondern seine Produktion industrialisiert. Ethan Zuckerman zeigt, dass die Werte, die in LLMs eingebrannt sind, nicht neutral sind, sie sind WEIRD – westlich, gebildet, industrialisiert, reich, demokratisch. Om Malik zeigt, dass Plattformen wie Instagram sich anschicken, weit über das Kuratieren, was wir sehen, hinauszugehen; sie definieren zunehmend, was als real gelten darf. Und Christopher Mims zeigt, dass am Ende niemand uns retten wird außer wir selbst.
Das klingt düster. Ist es auch. Aber ich finde, in diesen Texten steckt auch etwas anderes. Bei Zuckerman das Te Hiku Media Projekt, das beweist, dass Community-basierte KI möglich ist. Bei Sevilhano die Hoffnung, dass das Benennen der Krankheit ein erster Schritt sein könnte. Bei Mims die nüchterne Einsicht, dass Tools helfen können, auch wenn sie das Problem nicht lösen.
Was bleibt für uns? Ich denke, drei Dinge.
Erstens: Wachsamkeit. Critical Ignoring statt gedankenlosem Scrollen. Die eigene Aufmerksamkeit als knappe Ressource behandeln, die sie ist. Nicht alles konsumieren, nur weil es da ist.
Zweitens: Alternativen stärken. Mastodon statt Instagram. Apertus statt ChatGPT, wo es geht. Projekte wie Te Hiku Media unterstützen, die zeigen, dass KI auch anders gebaut werden kann. Der WEIRD-Mainstream ist nicht alternativlos. Und wir WEIRD Leute im globalen Norden müssen selbst mithelfen, dass wir nicht alles plattmachen, was nicht WEIRD ist.
Drittens: Darüber reden. Mit Freund*innen, Kolleg*innen, Geschäftspartner*innen. Die Fragen, die diese vier Autoren stellen, sind zu wichtig, um sie in Filterblasen versauern zu lassen. Wer entscheidet, was wir sehen? Wessen Werte sind in die Systeme eingebrannt? Akzeptieren wir „wahr genug” als neuen Standard?
Die Plattformen, die unseren Fokus zerstört haben, versprechen jetzt, unser Realitätsgefühl wiederherzustellen. Aber sie sind nicht glaubwürdig. Das ist ein Machtanspruch, den wir nicht einfach hinnehmen dürfen.
Denn am Ende geht es nicht um Technologie. Es geht darum, wer die Spielregeln schreibt. Und ob wir mitspielen oder selbst anfangen zu gestalten.
Bleibst du mit dran und gestaltest mit?
Das war es für heute. Bitte leite oder empfehle den Newsletter doch gerne weiter ➡️ ✉️ - das würde mir sehr helfen. Danke dir für die Aufmerksamkeit und bis zum nächsten Mal!






