đââď¸ #DRANBLEIBEN (Die schnellen 3)
#138: Enteignet, entwertet, ermĂźdet: Was generative KI mit unserer Sprache, unserer Kreativität â und unserem GefĂźhl fĂźr Bedeutung macht.
Neben all den beeindrucken Fortschritten, welche im Bereich âKĂźnstliche Intelligenzâ weiterhin in atemberaubendem Tempo zu beobachten sind, spreche hier im Newsletter immer wieder Ăźber KI aus einer anderen Perspektive. Dieses mal mĂśchte ich den Blick auf in kritisches Thema lenken. Und zwar darauf, wie KI unsere Sprache, unsere Kultur, unser Denken verändert. Selten war das, was wir dabei spĂźren, so deutlich greifbar wie in diesen Wochen - warum das so ist, seht ihr in den Empfehlungen. Die Frage, die sich dabei wie ein roter Faden durch diese Ausgabe zieht, lautet: Was bleibt, wenn alles wie Sprache klingt â oder wie Kunst aussieht â aber nichts mehr eine echte Beziehung zu uns herstellt?
Drei Texte haben mich in den letzten Tagen besonders beschäftigt â jeder auf seine Weise ein Schlaglicht auf eine beginnende kulturelle Entkopplung. Eine Entkopplung, auf die wir sehr genau achten sollten. Und die fĂźr uns von Bedeutung sein sollte.
The Atlantic hat offengelegt, in welchem AusmaĂ Tech-Konzerne wie Meta urheberrechtlich geschĂźtzte BĂźcher aus Piratenbibliotheken genutzt haben, um ihre KI-Modelle zu trainieren. Inklusive interner Mails, die zeigen, wie gezielt man juristische Grauzonen ausnutzen wollte. Ein Skandal, ja â aber auch ein Symptom. Denn wofĂźr werden all diese Texte eigentlich gebraucht?
Venkatesh Rao liefert darauf eine nĂźchterne Antwort: FĂźr das groĂe sprachliche MittelmaĂ. GroĂe Sprachmodelle wie ChatGPT oder Claude erzeugten âBeta-Spracheâ â flĂźssig, korrekt, erwartbar. Alles, was nicht âaus der Reihe tanztâ. Erik Hoel wiederum beschreibt, was mit uns passiert, wenn Bilder â wie der Stil von Studio Ghibli, dem man in diesen Tagen kaum entkommen kann â zu Filtern verkommen. Alles sieht dann irgendwie aus wie Kunst. Wirkt aber nicht mehr so.
Diese drei Texte ergänzen sich zu einem Bild, das beunruhigend klar ist. Nicht, weil KI etwas zerstĂśrt. Sondern weil KI unsere kulturellen Errungenschaften zu gut kopiert â und damit entleert.
Der rote Faden dieser Ausgabe: Enteignung. Entwertung. ErmĂźdung. Drei Symptome eines Systems, das uns als Datenquelle braucht â aber anscheinend nicht mehr als schĂśpferisches GegenĂźber.
3 wertvolle Artikel
The Unbelievable Scale of AIâs Pirated-Books Problem (Alex Reisner, The Atlantic)
Was tun, wenn man Millionen hochwertiger Texte braucht, aber keine Lust hat, dafĂźr zu zahlen? Bei Meta lautete die Antwort offenbar: Einfach runterladen. FĂźr das KI-Modell LLaMA 3 griff das Unternehmen auf LibGen zurĂźck â eine riesige, piratierte Online-Bibliothek, vollgestopft mit urheberrechtlich geschĂźtzten BĂźchern und wissenschaftlichen Artikeln. Interne Firmen-Chats zeigen: Lizenzen wären teuer gewesen und hätten Wochen gedauert. Also lieber der direkte Weg â inklusive Torrent-Download, mit Wissen von Mark Zuckerberg persĂśnlich.
Das Problem dabei: Wer mit BitTorrent runterlädt, lädt auch hoch. Das heiĂt: Meta kĂśnnte nicht nur Inhalte genutzt, sondern auch aktiv verbreitet haben â eine klare Urheberrechtsverletzung. Offenbar war das Risiko intern bekannt. Es gab konkrete Anweisungen, Spuren zu verwischen: ISBNs raus, keine Hinweise auf LibGen, kein Zitat in der Ăffentlichkeit. Während Meta schweigt, beteuert OpenAI, dass man solche Daten zuletzt 2021 verwendet habe â von Ex-Mitarbeitern.
Das Thema ist fĂźr DRANBLEIBEN-Leser*innen kein neues â ich habe in frĂźheren Ausgaben immer wieder auf das Spannungsfeld zwischen KI-Training und Urheberrecht hingewiesen. Und auch in meinem Podcast Code & Konsequenz gibt es eine Folge mit einer detaillierten Besprechung dazu. Doch was The Atlantic jetzt mit seiner Recherche offenlegt, bringt eine neue Dimension ins Spiel: harte Belege aus internen Mails, strategische Verschleierung, kalkuliertes Risiko. Und: Sie stellen eine durchsuchbare Datenbank bereit, in der jeder Autor*in selbst nachsehen kann, ob die eigenen Werke betroffen sind. Eine wichtige Ressource fĂźr alle, die wissen wollen, was ihre Arbeit in KI-Systemen wirklich âwert" ist.
LibGen selbst ist ein wilder Mix aus Bildungszugang, digitalem Aktivismus und systematischer Urheberrechtsverletzung. UrsprĂźnglich gestartet, um Studierenden in Ländern wie Iran oder Indien Wissen zugänglich zu machen, ist die Plattform heute ein globales Schattenarchiv. Millionen Werke â von Sally Rooney bis Nature â landen so in KI-Modellen, ohne dass Autor*innen gefragt oder bezahlt wurden.
Das wirft die groĂe Frage auf: Wie gehen wir mit Wissen im Zeitalter der generativen KI um? Zugang ist wichtig â keine Frage. Aber wenn Tech-Konzerne diesen Zugang in Geschäftsmodelle verwandeln, die menschliche Kreativität nur noch als Rohstoff behandeln, wirdâs problematisch. Wissen verliert Kontext, Urheber*innen verlieren Sichtbarkeit, und am Ende profitiert nur âBig Techâ.
Plus: Reisners Artikel macht deutlich, dass es nicht nur um technische MĂśglichkeiten geht â sondern um einen tiefgreifenden kulturellen Zugriff auf das kollektive Werk der Menschheit. Die KI-Industrie ist auf einem Datensatz gebaut, der âEverythingâ umfasst â nur eben ohne die Einwilligung derer, die ihn geschaffen haben.
đ Was drin steckt
Meta nutzte Millionen raubkopierter BĂźcher aus LibGen zum KI-Training.
Interne Chats belegen strategische Ignoranz ethischer und rechtlicher Bedenken.
Auch OpenAI hat laut Klage auf LibGen-Daten zugegriffen.
BitTorrent-Nutzung bedeutet womĂśglich aktive Weiterverbreitung von Raubkopien.
Unternehmen setzen auf âFair Useâ-Verteidigung â mit unsicherem Ausgang.
Die KI-Modelle sind auf einem Fundament aus unrechtmäĂig angeeigneter Sprache gebaut.
đŻ Warum lesen?
Weil dieser Artikel zeigt, wie aus kulturellem Gemeingut technisches Kapital wird â ohne Zustimmung, ohne Anerkennung, ohne RĂźcksicht.
LLMs as Index Funds: Language, Homogenization, and the Search for Alpha (Venkatesh Rao)
Im vorangegangenen Artikel ging es um die Schattenseiten des KI-Trainings mit millionenfach illegal beschafften Daten. Doch was passiert eigentlich nachdem all diese Texte in die Modelle geflossen sind? Venkatesh Rao liefert darauf eine eindrßckliche Antwort: Unsere Sprache selbst wird geglättet, standardisiert, normiert. Er stellt eine interessante Analogie her: LLMs wie GPT oder Claude verhielten sich zur Sprache wie Indexfonds zur BÜrse. Denn sie bildeten den Durchschnitt ab, nicht die Ausnahme. Alles klinge zunehmend plausibel, flßssig, aber eben auch: austauschbar.
Rao nennt das âBetaâ-Sprache â reibungsarm, vorhersagbar, effizient. Doch die eigentliche sprachliche Energie â das, was Ăźberrascht, bewegt, stĂśrt, inspiriert â lebt woanders: im sprachlichen âAlphaâ. Gemeint ist die unberechenbare, rohe Originalität, die entsteht, wenn Menschen schreiben, ohne sich dem Durchschnitt zu unterwerfen. Doch diese Form wird zunehmend in private Räume verdrängt: Substacks, Discords, interne Notizen. Hier testet man neue Formen, versteckt vor dem Blick der Maschinen.
Erst wenn eine Idee reif sei, wage sie den âIPOâ â den Sprung in die Ăffentlichkeit. Aber selbst dann beginne sofort die nächste Phase: Das Originelle werde kopiert, verdĂźnnt, in Modelle eingespeist â und schlieĂlich als neuer Standard wieder ausgespuckt. Der Zyklus von Alpha zu Beta sei endlos, aber entscheidend fĂźr unsere kulturelle Entwicklung.
Rao zeichnet das Bild einer sprachlichen Zweiklassengesellschaft: Hier die Ăśffentliche, synthetische Sprache der Modelle; dort die verborgene, riskante Kreativität einzelner. Wer heute etwas Eigenes sagen will, muss bewusst gegen den Strom schwimmen. Es reicht nicht, Sprachmodelle zu bedienen â wir mĂźssen lernen, uns von ihnen abzuheben. Die Zukunft der Sprache gehĂśrt jenen, die wissen: Das Wertvolle ist selten dort, wo alle hinschauen. Sondern da, wo man erstmal leise bleibt â bis der richtige Moment kommt, laut zu werden.
đ Was drin steckt
LLMs erzeugen sprachliches MittelmaĂ â âBeta Languageâ.
Originelle Sprache (âAlphaâ) wird verdrängt oder absorbiert.
Der Ăśffentliche Raum wird von synthetischer Sprache geflutet.
Es entsteht eine zwei-stufige SprachĂśkonomie: normiert vs. lebendig - eine Zweiklassengesellschaft der Sprache entsteht: Ăśffentlich normiert vs. privat kreativ.
Zentrale Warnung: Wer nur noch auf LLMs setzt, verliert die Fähigkeit zum sprachlichen Risiko â und damit zur echten Innovation.
đŻ Warum lesen?
Weil Rao klarmacht, dass es nicht genĂźgt, mit KI âeffizientâ zu kommunizieren. Wer Sprache liebt, muss lernen, sich vom MittelmaĂ abzuheben.
Was Rao fĂźr unsere Sprache analysiert, gilt auch fĂźr unsere Bilder, unsere Ăsthetik, unsere Emotionen. Die groĂe Stärke der KI ist nicht, dass sie perfekte Kunstwerke erschafft â sondern dass sie viel erschafft. Schnell. Auf Knopfdruck. Immer wieder.
Und genau das wird zum Problem.
Denn wenn alles aussieht wie Ghibli, fĂźhlt sich irgendwann nichts mehr wie Ghibli an.
Erik Hoel beschreibt đ diesen Moment des Bedeutungsverlusts als Beginn einer âsemantischen Apokalypseâ â nicht laut und spektakulär, sondern schleichend, leise, innerlich. Sein Essay ist keine Zukunftsvision, sondern ein Erfahrungsbericht. Und er trifft einen Nerv.
Welcome to the semantic apocalypse: Studio Ghibli style and the draining of meaning (Erik Hoel)
Was im letzten Artikel auf sprachlicher Ebene analysiert wird, greift dieser Text nun visuell und emotional auf: Wenn kĂźnstliche Intelligenz alles âwie etwasâ aussehen lassen kann, verliert das echte Etwas seinen Zauber. Der Autor Erik Hoel nennt das die âsemantische Apokalypseâ â ein kultureller Bedeutungsverlust, der nicht durch Zensur oder ZerstĂśrung entsteht, sondern durch Imitation. Als OpenAI sein neues Bildmodell verĂśffentlichte, explodierte das Netz mit Ghibli-Stil-Fotos. Alles wurde weichgezeichnet, träumerisch, nostalgisch â und seltsam leer.
Denn so schĂśn es ist, Kinderfotos im Look von Totoro zu sehen: Der Stil allein macht noch kein Werk. Die Magie entsteht im Kontext, im Bruch, im Unvollkommenen. Hoel beschreibt, wie ihn beim dritten Bild nicht Freude, sondern Traurigkeit erfasste â ein Zeichen, dass hier etwas Kulturelles stirbt: das Einmalige. KI braucht keine perfekte Kopie, um etwas zu entwerten. Nah genug reicht vĂśllig, um Originale emotional zu entkernen. Was einst 15 Monate Handarbeit brauchte, gibt es jetzt auf Knopfdruck.
Das erinnert fatal an das psychologische Phänomen der âsemantischen Sättigungâ: Ein Wort, zu oft wiederholt, verliert Bedeutung. Ghibli. Ghibli. Ghibli. Ein Stil, zu oft imitiert, verliert Tiefe. Das betrifft nicht nur Sprache, sondern Kunst, Emotion, Identität. KI-Modelle lernen von dem, was Entwickler lieben â und verwandeln es in skalierbare Ăsthetik als Abo-Service. Kultur wird zur Oberfläche. Substanz verblasst.
Hoels Diagnose ist beunruhigend: Nicht die Superintelligenz zerstĂśrt unsere Welt, sondern die Replizierbarkeit des SchĂśnen. Und unsere Bereitschaft, das Original gegen Filtereffekte zu tauschen. Wenn alles aussieht wie Ghibli, fĂźhlt sich irgendwann nichts mehr wie Ghibli an. Es bleibt die HĂźlle. Und ein Klick weiter die nächste. Das ist die âsemantische Apokalypseâ: Eine Welt voller Nachbildungen, die alle Bedeutung verwischt.
đ Was drin steckt
KI-generierte Kunst fßhrt zu kultureller semantischer Sättigung.
Stile geliebter KĂźnstler*innen wird kopiert, häufig basierend auf den Vorlieben der Entwickler selbst â was als gezielte Ăsthetik-Kolonisierung eingeordnet werden kann.
Diese Imitationen sind nicht perfekt â aber ânah genugâ, um das Original gefĂźhlsmäĂig zu entwerten.
Die Wiederholung von Stilmitteln lĂśst eine weitere emotionale Entkopplung aus.
Stil wird zur reinen Oberfläche â entkoppelt von Intention und Kontext.
Der Mensch verliert den Bezug zum Menschlichen in der Kultur.
KI ist nicht nur ein Werkzeug â sie verändert unser WahrnehmungsvermĂśgen.
Kultur wird zur bloĂen Struktur â ohne Substanz.
đŻ Warum lesen?
Weil Hoel nicht nur analysiert, sondern fĂźhlt. Und damit zeigt, wie KI unsere Beziehung zu Bedeutung, Kunst und Empfindung neu konfiguriert â und auszehrt.
đ Ein Quersprung: die stille Frage am Rand
Letzten Monat habe ich in #DRANBLEIBEN den Essay âIs it okay?â von Robin Sloan empfohlen. Dort geht es um eine zentrale Frage rund um KI: Ist es moralisch vertretbar, dass groĂe Sprachmodelle auf der gesammelten Schriftkultur der gesamten Menschheit â von Sloan als âEverythingâ bezeichnet â trainiert werden? Hier, in diesem Kontext, halt dieses Essay er noch lauter nach. Denn zwischen Enteignung, Entwertung und ErschĂśpfung bleibt genau diese Frage offen: Ist es okay?
Ist es okay, wenn eine Welt entsteht, in der Maschinen Texte schreiben, die uns gleichgĂźltig lassen â auf Grundlage von BĂźchern, die wir nie bezahlt haben?
Sloan gibt keine Antwort. Vielleicht geht es letztlich nicht darum, diese Frage endgĂźltig zu beantworten. Sondern sie offen zu halten â als moralischer Kompass. Als Einladung zur Reflexion. Als Anker in einem System, das derzeit lieber alles zu glätten scheint, als uns in unserem Menschsein wirklich voranzubringen.
Fazit
Vielleicht erleben wir gerade nicht nur einen technologischen Durchbruch, sondern auch eine kulturelle Sättigung. Ein Zuviel an Stil. Ein Zuwenig an Substanz. Wenn KI-Modelle imitieren, reproduzieren, filtern â und wir das SchĂśne auf 20-Dollar-Abos reduzieren â bleibt etwas Entscheidendes auf der Strecke: unsere Beziehung zum Echten.
Dazu kommt: Die Grundlage dieser âsynthetischen Kulturâ ist nicht neutral. Alex Reisner von Atrlantic hat deutlich gemacht, auf welchen Wegen sich die Trainingsdaten solcher Modelle zusammensetzen â oft aus Werken, fĂźr die nie ein Einverständnis vorlag. Aus Wissen und Kreativität, das einfach eingesogen wurde.
Sprache, Kunst, Wissenschaft: Alles wird eingespeist, homogenisiert, ausgeworfen. Erst entkoppelt vom Ursprung. Dann entleert von Bedeutung.
Rao lässt zumindest die Hoffnung auf RĂźckzugsräume offen â auf kleine, nicht-Ăśffentliche Orte, an denen Neues entstehen darf, bevor es wieder verschluckt wird vom synthetischen Strom. Erik Hoel dagegen beschreibt die Melancholie, die eintritt, wenn selbst die stärksten Bilder â Totoro, die Musik, das kindliche Staunen â nur noch wie eine Nachahmung wirken.
Das Menschliche in der Kultur â es verschwindet nicht von heute auf morgen. Aber es wird leiser, diffuser, austauschbarer. Und vielleicht liegt genau hier unsere Aufgabe: nicht lauter zu sprechen, sondern wieder zuzuhĂśren. Uns zu erinnern. Und bewusst Räume zu schaffen, in denen Bedeutung nicht zur Syntax wird, sondern Bedeutung bleibt. Wo wir uns ganz bewusst darĂźber sind, wo uns KI-basierte Dienste das Leben erleichtern kĂśnnen. Und wo sie eine Gefahr fĂźr all das schĂśne darstellt, was uns zu dem macht, was wir sind: Menschen.
Das war es fĂźr heute. Bitte leitet oder empfehlt den Newsletter doch gerne weiter âĄď¸ âď¸ - das wĂźrde mir sehr helfen. Danke euch fĂźr die Aufmerksamkeit und bis zum nächsten Mal!