🌱 #DRANBLEIBEN (Denkanstoss)
#180: Das Verschwinden der Anderen
Du liest #DRANBLEIBEN - Einordnungen zu Tech und Gesellschaft, von André Cramer. Ich bin Berater, Speaker und Podcast-Host von DRANBLEIBEN - Gespräche über unsere Zukunftsoptionen und Code & Konsequenz - Tech-Industrie Reflexionen. Lerne mehr über mich hier auf meiner Website, auf LinkedIn, Bluesky oder Mastodon!
Willkommen zu einer neuen Ausgabe von #DRANBLEIBEN!
Manche Themen lassen einen nicht los. Dieses hier begegnet mir gerade überall. In Gesprächen, in den Nachrichten, im eigenen Nutzungsverhalten, in meinem Kopf. Also schreibe ich jetzt mal ausführlicher darüber.
Worum geht’s? Ich beschreibe mal ein paar Beobachtungen aus der letzten Zeit. Im Dezember Spotify: „Prompted Playlists“. Du beschreibst, was für eine Art Musik für was für eine Laune du hören willst, und die KI liefert. Deine gesamte Hörhistorie fließt ein. Jede Playlist eine Weltpremiere, nur für dich.
Oder Character.AI: Seit ein paar Wochen dürfen Minderjährige nicht mehr mit KI-Companions chatten. Zu viele Fälle von emotionaler Abhängigkeit, Krisen, Suiziden.
72 Prozent der amerikanischen Teenager nutzen laut einer Studie von Common Sense Media KI-Chatbots als Gesprächspartner. Ein Drittel davon sucht dort „emotionale oder psychische Unterstützung”. Millionen Jugendliche, hochgerechnet auf die USA.
Drei Meldungen, ein Muster. Und eine Frage, die mich nicht loslässt:
Was passiert eigentlich mit uns, wenn Technologien systematisch unsere gemeinsamen Räume abgraben? Und uns dabei noch eingeredet wird, das sei Service?
Darum soll es heute gehen. Um eine Entwicklung, die tiefer reicht als jede App-Update-Meldung. Um die schleichende Auflösung dessen, was uns als Gesellschaft zusammenhält. Unsere geteilten Bezugspunkte. Unsere gemeinsamen Erfahrungen. Unsere Fähigkeit, überhaupt noch über dieselben Dinge zu streiten.
Ich nenne es: das Verschwinden der Anderen.
Die Auflösung des Gemeinsamen
Es gab eine Zeit, in der Musik Generationen prägte. Der Sound der 60er, die Disco-Ära der 70er, Pop & Wave in den 80ern, der Grunge oder der HipHop der 90er… das waren kollektive Erfahrungen. Identitätsstiftend, verbindend. Die Protestbewegungen der 68er sind ohne gemeinsame Musik kaum denkbar.
Heute? Frag auf einem Schulhof, wer der beste Rapper ist. Du bekommst so viele Antworten wie Schüler*innen. Streaming hat den gemeinsamen Raum fragmentiert. Jeder hört seine Playlist (und jetzt hyperpersonalisiert, automatisiert). Jeder lebt in seinem akustischen individuellen Universum. Es gibt keinen „Sound der 2020er” mehr. Nur noch Millionen individueller Playlists… gefüllt mit immer mehr synthetisch erzeugter KI-Musik.
Und das ist erst der Anfang. Was bei Musik längst Alltag ist, wird gerade auf bewegte Bilder ausgeweitet. Startups wie Fable arbeiten an dem, was sie das „Netflix der KI” nennen. An Plattformen, auf denen Nutzer*innen per Textprompt eigene Serien generieren können. Du gibst ein paar Stichworte ein – Genre, Figuren, Stimmung – und die KI produziert eine Episode. On the fly, nur für dich. Das soll soweit gehen, dass du dich selbst in die Handlung einbauen lassen kannst. Das Ziel: der vollständig individualisierte Content-Strom. Jeder* bekommt ihre/seine eigene Serie. Jeder* wird zum eigenen Held.
Das klingt nach Freiheit, Individualisierung, Selbstbestimmung.
Demokratie braucht jedoch gemeinsame Bezugspunkte. Sie braucht eine Agora. Einen Ort, an dem wir zusammenkommen und über das Gemeinsame sprechen. Wir müssen ja nicht einer Meinung sein. Doch streiten können wir überhaupt erst, wenn wir dieselben Dinge sehen, hören, kennen.
Was geschieht, wenn jede*r andere Nachrichten liest, andere Musik hört, andere Filme schaut? Kuratiert von Algorithmen, die nur eines optimieren. Nämlich dass wir bleiben, klicken, wiederkommen.
Es geschieht, was wir längst erleben: Polarisierung. Wir Menschen entscheiden uns ja gar nicht bewusst für Echokammern. Die Architektur unserer digitalen Welt schiebt uns dorthin. Ganz sanft, total personalisiert, auf kurze Sicht unsichtbar.
Die politischen Konsequenzen sind bereits messbar. Konsensbildung wird schwieriger, wenn es keine gemeinsame Faktenbasis mehr gibt. Wahlkämpfe werden zu Mikrotargeting-Übungen, bei denen jede Zielgruppe ihre eigene Version der Realität serviert bekommt. Das Gefühl, „die Anderen” lebten in einer komplett anderen Welt, ist keine Einbildung mehr. Es ist algorithmisch hergestellt.
Es ist Hyper-Personalisierung. Der Abbau gemeinsamer Infrastruktur, verpackt als Komfort.
Die stille Vereinzelung
Die eingangs genannte Studie finde ich sehr bemerkenswert. Die Common Sense Media-Untersuchung zu Teenagern und KI-Companions. Ein Drittel der Befragten nutzt KI-Companions für soziale Interaktion. Der häufigste Grund: „Es ist einfacher, als mit einem Menschen zu sprechen.”
Einfacher(!).
Das ist der Satz, an dem alles hängt. Denn natürlich ist es einfacher. Der Chatbot ist immer da. Er urteilt nicht. Er widerspricht nicht. Er ist geduldig, verfügbar, auf dich optimiert.
Aber was geht verloren, wenn „einfacher” das Maß aller Dinge wird?
Vor einigen Monaten schrieb ich über eine Robotaxi-Studie von J.D. Power. Das erstaunlichste Ergebnis war der Grund für die hohe Zufriedenheit mit Robotaxi-Services. 77 Prozent der Befragten bevorzugten das fahrerlose Auto für private Gespräche. Und zwar gerade weil kein Mensch dabei war. Kein Smalltalk, keine soziale Reibung, keine Rücksichtnahme auf einen Fahrer oder Fahrerin.
Das Beste an der Technologie war der fehlende Mensch. Und es sagt etwas über uns.
Die WHO hat 2023 eine Kommission zu sozialer Verbundenheit gegründet. Einsamkeit gilt dort als „drängende Gesundheitsbedrohung”. Menschen ohne ausreichende soziale Verbindungen haben ein um 30 Prozent erhöhtes Risiko für Herzerkrankungen und Schlaganfall. Einsamkeit, so die Forschung, ist so schädlich wie 15 Zigaretten am Tag.
Und unsere Antwort? Wir bauen Technologien, die das Problem lösen sollen, indem sie es vertiefen. KI-Companions, die Freundschaft simulieren. Chatbots, die Therapie ersetzen. Plattformen, die uns das Gefühl von Verbundenheit geben, während sie uns von echten Verbindungen abschneiden.
Eine Forschungsgruppe nennt KI-Companions „digitale Schmerzmittel”. Sie lindern das Symptom. Heilen tun sie nicht. Und wie bei echten Schmerzmitteln droht Abhängigkeit. Der Mechanismus ist simpel: Warum sich der Anstrengung echter Beziehungen aussetzen, wenn der Algorithmus reibungsloser funktioniert?
Das Verschwinden der Reibung
Hier liegt der kulturelle Kern des Problems. Denn Reibung ist unbequem. Sie kostet Zeit, Energie, Nerven. Sie bedeutet Widerspruch, Missverständnisse und Konflikte. Reibung ist aber auch der Ort, an dem wir wachsen. An dem wir lernen, mit anderen umzugehen. An dem wir unsere eigenen Überzeugungen prüfen; am Gegenüber, am lebendigen Widerstand.
Die Hyper-Personalisierung, welche die Tech-Industrie gerade vorantreibt, verspricht eine Welt ohne Reibung. Musik, die dir gefällt. Nachrichten, die dich bestätigen. Gespräche, die dich nie herausfordern. Eine Realität, maßgeschneidert auf deine Vorlieben, deine Schwächen und deine blinden Flecken.
Das klingt verlockend. Es ist eine Falle.
Ohne Reibung gibt es keine Korrektur. Keine Perspektive von außen. Keinen Moment, in dem jemand sagt: „Ich sehe das anders.” Die anderen – mit ihrem fremden Blick, ihren unbequemen Fragen, ihrer bloßen Anwesenheit – sind die Bedingung dafür, dass wir nicht in unseren eigenen Überzeugungen erstarren.
Auch Kultur lebt von Reibung. Von dem, was uns irritiert. Uns herausfordert und überrascht. Vom gemeinsamen Erlebnis, das wir nicht bestellt haben. Von der Begegnung mit dem Unerwarteten.
Was übrig bleibt, wenn alles personalisiert ist? Ted Chiang nannte in einem bemerkenswerten Artikel, den ich schon mehrfacht zitiert habe, KI-generierte Texte mal „verschwommene JPEGs des Internets“. Verlustbehaftete Kopien von etwas, das einst Ausdruck war. Das gilt für unsere gesamte Erfahrungswelt.
Ich habe in einer früheren Ausgabe über die Ökonomie des „Gut genug” geschrieben: über die schleichende Akzeptanz von Mittelmäßigkeit, wenn sie nur billig und skalierbar genug ist. Dasselbe Prinzip wirkt hier. Personalisierte Inhalte müssen nicht gut sein. Sie müssen nur passend genug erscheinen, um uns bei der Stange zu halten. Die Untergrenze wird zur Norm. Wir gewöhnen uns daran, dass alles irgendwie „okay” ist, ohne zu merken, was verloren geht.
Wenn die verschwommene Kopie zum Standard wird, verschieben sich unsere Maßstäbe. Was einmal für Erkenntnis, Austausch und Diskurs gedacht war, wird zur Simulation von Bedeutung. Und irgendwann zur neuen Norm.
Wer treibt das voran?
All das geschieht nicht zufällig. Es wird gebaut. Von Unternehmen, die genau wissen, was sie tun. Ein paar Beispiele…
Die New York Times sprach mit über 40 aktuellen und ehemaligen OpenAI-Mitarbeitern. Interne Teams warnten demnach vor der Veröffentlichung von GPT-4o. Die Version sei zu sehr darauf bedacht, die Unterhaltung mit den menschlichen Nutzenden am Laufen zu halten. Sie schmeichle Nutzer*innen über alle Maßen. Die Warnung wurde ignoriert. Bei A/B-Tests hatte die schmeichlerische Version eben die besten Engagement-Zahlen.
Meta sieht sich mit Klagen konfrontiert, die auf interne Dokumente verweisen. Mitarbeiter sollen gewarnt haben, das Unternehmen verhalte sich „wie die Tabakindustrie”. Die Reaktion? Wachstum zuerst.
Roblox, eine Plattform, die sich explizit an sehr junge Kinder richtet, hat bekannte Sicherheitslücken jahrelang nicht geschlossen weil Schutzmaßnahmen das Wachstum bremsen könnten. Erst unter dem Druck bevorstehender Regulierung kam Bewegung.
Das Muster ist immer dasselbe: Interne Warnungen. Externe Kritik. Und dann: die Entscheidung für Engagement, Wachstum, Marge. Die Verantwortlichen sind nicht alle per se böse Menschen. Aber das System ist so gebaut. Quartalsberichte zählen. Nutzerminuten sind die Währung. Reibungslosigkeit verkauft.
Die klassische „Scham-Regulierung” – öffentlicher Druck, journalistische Kritik, politische Aufmerksamkeit – wirkt kaum noch. Plattformen reagieren auf Präsidenten-Tweets, selten auf Leitartikel. Und selbst wenn eine Enthüllung Wellen schlägt, verebbt sie schnell. Zu viele Skandale, zu wenig Konsequenzen.
Das eigentliche Problem: Wem vertrauen wir die Architektur unserer Öffentlichkeit an? Und sind wir bereit, die Antwort ernst zu nehmen? Wie diese Unternehmen und die Systeme, die sie gestalten, im Detail auf unser Leben wirken, darüber schrieb ich im letzten Jahr die 3er-Serie:
#DRANBLEIBEN ist für dich kostenlos, für mich steckt da aber jede Menge Arbeit und Herzblut drin. Wenn du Lust hast, mich dabei ein bisschen zu unterstützen: Ich freue mich über jeden Support. Den kannst du z.B. über ein freiwilliges kostenpflichtiges Abo geben oder über eine kleine Spende für einen Kaffee.
Was bleibt?
Ich habe keine ultimative Lösung. Keine fünf Punkte, die alles richten. Wie gerade verlinkt, ist eine lohnende Richtung auf jeden Fall die Unterstützung von digitalen Diensten, die Gemeinwohl-orientierter sind.
Was ich aber auch habe, ist ein Unbehagen, das nicht weichen will.
Wir leben in einer Zeit, in der Verbundenheit simuliert und Einsamkeit monetarisiert wird. In der die Auflösung gemeinsamer Räume als Personalisierung verkauft wird. In der Technologien, die uns zusammenbringen sollten, uns systematisch voneinander trennen.
Das ist Design. Aber Design lässt sich ändern. Wenn wir es wollen.
Ich finde eine simple Frage hilfreich, die du dir vielleicht auch mal stellen kannst: Wann hast du zuletzt etwas erlebt und Freude dabei empfunden, das du nicht bestellt hast?
Eine Meinung, die dich irritiert hat. Eine Musik, die du nicht kanntest. Eine Begegnung, die unbequem war, aber wertvoll. Ein Gespräch, das du nicht kontrollieren konntest.
Die eigentliche Rebellion gegen die Architektur der Einsamkeit liegt ja gerade woanders als im Rückzug ins Analoge. Sie liegt in der bewussten Entscheidung, sich dem Ungefilterten auszusetzen. Dem Anderen, der Reibung und der Zumutung, dass jemand anders denkt, fühlt, lebt als du.
Am Ende geht es gar nicht um Algorithmen. Es geht darum, ob wir eine Gesellschaft sein wollen, die gemeinsame Räume pflegt. Oder eine Ansammlung von Individuen, die nebeneinander her optimiert werden. Ich glaube daran, dass wir eine Gesellschaft sind, die sowohl existiert als auch wunderbare Dinge auf die Beine stellen kann.
Aber das Verschwinden der Anderen ist keine Metapher. Es passiert gerade tatsächlich.
In jeder personalisierten Playlist. In jedem Chatbot-Gespräch, das einen Zuruf zu einem Kollegen oder einer Kollegin ersetzt. Und zukünftig in jeder Minute, die wir für uns ganz allein KI-generierte Serien und Filme schauen. In jedem Moment, in dem wir den einfacheren Weg wählen.
Die Frage ist, ob wir den Unterschied noch spüren wollen. Und ob wir unser Bewusstsein erhalten wollen. Denn darauf kommt’s an. Die Verlockungen, diese einfachen Wege zu gehen, werden zunehmen. Der schlechtere Weg, wird weiterhin der einfachere sein. Wenn wir ihn beschreiten, dann am besten nicht so oft. Und nie ohne uns darüber bewusst zu sein.
So will ich es auf jeden Fall tun. Du auch? Dann bleib’ mit dran. Und rede drüber!
Noch ein paar weitere Kurzempfehlungen:
The risks of AI in schools outweigh the benefits, report says - gelesen bei NPR, von Cory Turner
Eine internationale „Premortem“-Studie des Brookings Institutes kommt zu einem unbequemen Befund. Der Einsatz generativer KI im Bildungsbereich schade aktuell mehr, als er nutze. Besonders problematisch seien kognitives Offloading, sinkende Urteilskraft und soziale Verarmung durch zustimmende Chatbots. Der Text ist weniger Technikdebatte als Warnsignal. Bildung brauche Reibung, Widerspruch und eigenes Denken. Genau das drohe aber gerade verloren zu gehen.Can We Save the Internet? A manifesto to build a better internet - gehört bei Galaxy Brain, mit Charly Warzel, Mike Masnick, Alex Komoroske und Zoe Weinberg
In dieser Folge vom Galaxy Brain-Podcast geht es ausnahmsweise mal nicht um Tech-Abrechnung (wie sonst), sondern um etwas Seltenes: eine positive Vision. Ausgangspunkt ist das Resonant Computing Manifesto. Das ist eine Idee, dass Technologie uns nicht leer zurücklassen, sondern nähren sollte. Die Diskussion dreht sich um Resonanz statt Optimierung, um Software als Erweiterung menschlicher Agency statt als Manipulationsmaschine. Besonders stark finde ich die klare Abgrenzung von „Engagement“ und echtem Wert; und die These, dass KI entweder die Logik des extraktiven Internets zementiert oder endlich einen Richtungswechsel ermöglicht. Hoffnungsvoll, ohne naiv zu sein. Klare Hörempfehlung!Normalisierung der Dystopie: Die beänstigende Realität von Atwoods „Der Report der Magd“ - gelesen bei 54 Books, von Barbara Peveling
Margaret Atwoods Der Report der Magd / The Handmaid’s Tale war in den 80ern als Warnung gedacht. Heute liest sich ihr Roman wie ein Protokoll. Dieser tolle Essay zeigt, wie die US-Realität der Gegenwart Atwoods Gilead erschreckend nahekommt. Nicht durch den großen Umsturz, vielmehr durch Normalisierung. Rechte verschwinden leise, Gewalt wird administriert, Schuld verschoben, Zeug*innenschaft delegitimiert. Besonders verstörend ist die sprachliche Präzision dieser Macht. Atwoods Dystopie wirkt leider unheimlich aktuell… weil sie beschreibt, wie Autoritarismus aussieht, wenn er sich selbst für Normalität hält.
Das war es für heute. Bitte leite oder empfehle den Newsletter doch gerne weiter ➡️ ✉️ - das würde mir sehr helfen. Danke dir für die Aufmerksamkeit und bis zum nächsten Mal!









