đââď¸ #DRANBLEIBEN (Die schnellen 3)
#129: Was, wenn KI nicht nur unsere Arbeit Ăźbernimmt â sondern auch unser Denken?
Was, wenn KI nicht nur unsere Arbeit Ăźbernimmt â sondern auch unser Denken?
KĂźnstliche Intelligenz ist Ăźberall. Sie lĂśst Matheaufgaben, schreibt Gedichte und imitiert menschliche Sprache so Ăźberzeugend, dass man sich fragt: Ist das noch Simulation â oder beginnt KI tatsächlich zu âdenkenâ? Sigal Samuel stellt diese Grundsatzfrage in ihrem Essay Is AI really thinking and reasoning â or just pretending to? und zeigt, warum KI gleichzeitig brillant und fehlerhaft ist. Ihre Analyse legt die Basis fĂźr das Verständnis der technologischen MĂśglichkeiten und Grenzen â und macht klar, dass es darauf keine einfache Antwort gibt.
Doch selbst wenn KI nicht wirklich denkt â ist es moralisch vertretbar, dass sie auf dem kollektiven Wissen der Menschheit trainiert wird? Robin Sloan nimmt sich dieser ethischen Dimension in Is it okay? an. Er hinterfragt die Praxis, Milliarden von Texten ungefragt in KI-Modelle zu speisen, und stellt die entscheidende Frage: Wo ziehen wir die Grenze zwischen Innovation und Enteignung? Falls KI bahnbrechende wissenschaftliche DurchbrĂźche ermĂśglicht, kĂśnnte ihr Nutzen das rechtfertigen â doch wenn sie nur austauschbare Inhalte generiert, wäre das ein Verrat an der kreativen Vielfalt, aus der sie schĂśpft.
Und schlieĂlich: Was macht das alles mit uns? Surekha Davies blickt in Weâre Already at Risk of Ceding Our Humanity to AI auf die gesellschaftlichen Konsequenzen. Was passiert, wenn KI nicht nur unser Wissen nutzt, sondern auch unsere kreative Identität infrage stellt? Wenn Maschinen unsere Kunst erschaffen und unsere Worte formulieren â was bleibt dann noch von uns?
Drei Essays, drei Perspektiven â und eine Technologie, die unser Denken herausfordert. Und vielleicht auch unsere Zukunft. Und weil das so wichtig ist, solltet ihr #DRANBLEIBEN!
3 wertvolle Artikel
Is AI really thinking and reasoning â or just pretending to? (Sigal Samuel)
Denken KI-Modelle wirklich â oder spielen sie nur eine beeindruckende Illusion? Diese Frage untersucht Sigal Samuel in ihrem Essay fĂźr Vox und beleuchtet die Kontroverse um das sogenannte âReasoningâ in modernen Sprachmodellen. Unternehmen wie OpenAI behaupten, dass ihre neuesten Systeme komplexe Schlussfolgerungen ziehen kĂśnnen. Doch während einige Experten das als echten Fortschritt feiern, bleibt die Skepsis groĂ.
Ein zentrales Problem: Was bedeutet âReasoningâ Ăźberhaupt? Menschliche Logik umfasst viele Formen des Denkens, von Deduktion bis hin zu intuitiver Mustererkennung. KI-Modelle wie OpenAIs neueste Varianten nutzen âChain-of-Thought-Reasoningâ, indem sie Probleme schrittweise auflĂśsen. Doch das bedeutet nicht automatisch, dass sie wirklich âdenkenâ â sie kĂśnnten einfach nur Muster aus ihrem Training imitieren.
Skeptiker*innen argumentieren, dass KI lediglich eine raffinierte Form der Nachahmung betreibe, ohne echtes Verständnis. Dass sie schwierige Mathematikaufgaben lĂśsen kĂśnne, aber an einfachen Fragen scheitere, spricht fĂźr eine oberflächliche Mustererkennung statt echter Kognition. Doch BefĂźrworter halten dagegen: KI verallgemeinere Wissen und kombiniere gespeicherte Informationen mit heuristischen Entscheidungsprozessen â eine Form von Denken, wenn auch anders als beim Menschen.
Ein neuer Begriff beschreibt dieses Phänomen treffend: âJagged Intelligenceâ. Während menschliche Intelligenz eher rund und zusammenhängend ist, wirkt KI wie eine Landschaft mit extremen HĂśhen und Tiefen â herausragend in manchen Bereichen, katastrophal in anderen.
Die praktische Lehre daraus? KI ist nĂźtzlich fĂźr Aufgaben, deren Ergebnisse ĂźberprĂźfbar sind. Etwa beim Programmieren oder Analysieren von Daten. Bei moralischen oder emotionalen Fragen hingegen sollte man sie eher als Sparringspartner denn als Entscheidungsträger betrachten. KI kann Gedanken anstoĂen â aber ob sie wirklich denkt, bleibt offen. Wie auch in anderen Debatten Ăźber Kognition und Intelligenz immer wieder zu entnehmen ist, finde ich auch hier: Die Frage ist nicht, ob KI âschlauerâ oder âdĂźmmerâ als wir Menschen ist â sondern dass sie fundamental anders funktioniert. Unternehmen präsentieren sie gerne als menschenähnlich, doch in Wahrheit bleibt sie eine fremde, eigene Form von Intelligenz. Deshalb kommt es nicht nur darauf an, was KI kann, sondern auch darauf, wie wir sie einsetzen und ihre Ergebnisse bewerten.
Is it okay? (Robin Sloan)
Robin Sloan stellt in seinem Essay Is it okay? eine zentrale Frage rund um KI: Ist es moralisch vertretbar, dass groĂe Sprachmodelle auf der gesammelten Schriftkultur der gesamten Menschheit â von ihm als âEverythingâ bezeichnet â trainiert werden? Die Technik schreitee ohnehin unaufhaltsam voran, doch bleibt die ethische Dimension relevant. Sloan versucht, sich der Frage auf eine Weise zu nähern, die weder in einfache Ablehnung noch in naive Begeisterung verfällt.
Er setzt sich mit zwei mĂśglichen Extremen auseinander. Falls KI-Modelle tatsächlich bahnbrechende wissenschaftliche Fortschritte ermĂśglichen â etwa durch medizinische DurchbrĂźche oder die LĂśsung globaler Probleme â, kĂśnnte die Nutzung dieses âgemeinsamen Erbes der Menschheitâ gerechtfertigt sein. In dieser âSuper-Scienceâ-Perspektive wĂźrde der kollektive Nutzen die fragwĂźrdige Aneignung digitaler Inhalte aufwiegen. Doch gebe es dafĂźr bisher nur vage Versprechen, keine greifbaren Beweise.
Auf der anderen Seite steht die Gefahr, dass KI vor allem dazu genutzt wird, generische Inhalte zu erzeugen, die menschliche Kreativität verdrängen und die kulturelle Landschaft mit Massenware fluten. Sollte sich die Technologie in erster Linie als Werkzeug zur industriellen Produktion ramschiger und austauschbarer Medien erweisen â der âSlop Machineâ-Effekt â, dann wäre die Aneignung von âEverythingâ nicht zu rechtfertigen.
Sloan beschreitet hier einen interessanten gedanklichen Pfad von Technologieprßfung, dem ich viel abgewinnen kann: Sollten wir uns bei technologischen Entwicklungen nicht die Frage stellen, ob eine Neuerung dem Gemeinwohl dient oder ob sie unsere soziale Struktur untergräbt? Diese Frage wurde von Tech-Konzernen nie wirklich gestellt, sodass wir uns nun in einer Realität wiederfinden, in der sowohl vielversprechende Fortschritte im wissenschaftlichen Bereich als auch eine Flut austauschbarer KI-generierter Inhalte existieren.
Letztlich verweigert Sloan sich einer endgĂźltigen Antwort. Er argumentiert, dass wir in einigen Jahren klarer sehen werden: Entweder werde KI tatsächlich tiefgreifende wissenschaftliche DurchbrĂźche liefern, oder sie bleibe eine Maschine zur Massenproduktion von Inhalten â dann allerdings auf Kosten der menschlichen Kreativität. Bis dahin bleibt die Debatte offen, und sein Essay liefert eine kluge, reflektierte Perspektive auf das Spannungsfeld zwischen KI und unserem kulturellen Erbe.
Weâre Already at Risk of Ceding Our Humanity to AI (Surekha Davies)
KĂźnstliche Intelligenz kann inzwischen Gedichte schreiben â aber die entscheidende Frage, wie ich finde, um die es geht: Sollten wir das Ăźberhaupt wollen? Genau diese Frage wirft die Historikerin und Autorin Surekha Davies in ihrem Essay Weâre Already at Risk of Ceding Our Humanity to AI auf. Ausgangspunkt ist eine Unterhaltung, die sie 2019 in einer Bar in Rhode Island gefĂźhrt hat. Ein Akademiker habe ihr erklärt, dass es groĂartig sei, wenn Maschinen Gedichte schreiben kĂśnnten â âdamit Menschen es nicht mehr tun mĂźssenâ. FĂźr Davies klingt das nicht nach Fortschritt, sondern nach einem schleichenden Verlust dessen, was uns als Menschen ausmacht.
Kreativität sei nicht nur Selbstzweck, sondern ein zutiefst menschliches BedĂźrfnis. Ob Schreiben, Malen oder Musizieren â es gehe nicht darum, ein Produkt abzuliefern, sondern um den Prozess, um das Denken, FĂźhlen und Wachsen, das dabei geschieht. Doch in einer Welt, in der Effizienz und Automatisierung Ăźber alles gestellt werden, droht genau das unter die Räder zu kommen. Davies sieht eine gefährliche Entwicklung: Je mehr KI uns kreative und intellektuelle Arbeit âabnehmeâ, desto grĂśĂer werde das Risiko, dass wir Menschen selbst als ĂźberflĂźssig angesehen werden.
Dieses Denken ist kein Zufall, sondern Ergebnis einer technokratischen Ideologie, die alles, was sich nicht in Algorithmen und Profit umwandeln lässt, fĂźr irrelevant erklärt. Während Tech-Konzerne Rekordgewinne einfahren, werden KĂźnstler, Autoren und Journalisten durch generative KI zunehmend in die Bedeutungslosigkeit gedrängt â oft mit Inhalten, die genau aus ihren eigenen Werken geklaut wurden. Gleichzeitig werden in Niedriglohnländern schlecht bezahlte Arbeitskräfte eingesetzt, um KI-Modelle von problematischen Inhalten zu âsäubernâ. Während in wohlhabenderen Ländern die Narrative dominieren, dass Maschinen ohnehin bald alles besser kĂśnnten als Menschen.
Davies zieht eine Verbindung zu Science-Fiction-Welten, die vor genau dieser Entwicklung warnen. Ob Blade Runner, Frankenstein oder Terminator â die Idee, dass Maschinen irgendwann nicht mehr nur Werkzeuge, sondern Rivalen oder gar Ersatz fĂźr den Menschen sein kĂśnnten, ist nicht neu. Was heute allerdings anders sei: Diese Szenarien sind längst keine Dystopien mehr, sondern Teil unserer Gegenwart. KI wird bereits genutzt, um Hollywood-Schauspieler*innen digital zu ersetzen. Journalismus durch klickoptimierte KI-Texte zu verwässern. Und Arbeitsprozesse zu entmenschlichen.
Doch der eigentliche Kampf geht nicht um Technik, sondern um Macht. Denn die Frage ist nicht, ob Maschinen besser dichten, zeichnen oder analysieren kĂśnnen als Menschen â sondern wer bestimmt, was das fĂźr unsere Gesellschaft bedeutet. Davies warnt davor, diese Entscheidung den Konzernen zu Ăźberlassen, die KI als Allheilmittel verkaufen. Denn wenn wir nicht aufpassen, wĂźrden bald Maschinen nicht nur unsere Arbeit bestimmen, sondern auch darĂźber, was uns als Menschen Ăźberhaupt noch ausmacht.
Zum Schluss
Das hier passt ganz gut in den Themenkomplex Mensch, Maschine und unsere Beziehung zueinander. Der in San Francisco beheimatete (und vormals von Sam Altman gefĂźhrte) Startup Accelerator Y Combinator findet, dass dies hier einen GlĂźckwunsch zur MarkteinfĂźhrung wert ist: ein KI-Startup mit KI-Ăberwachung fĂźr industrielle FertigungsstraĂen. Diese Jungs sagen, dass sie ihr ganzes Leben, einschlieĂlich ihrer Kindheit, in Fabriken verbracht haben, die ihre Eltern leiten. Sie sind beide Studenten an der Duke University. Und was haben sie aus all diesen Erfahrungen mitgenommen? Chefs brauchen effizientere Wege, um ihre Arbeiter anzupĂśbeln.
Mehr lesen: Y Combinator Supports AI Startup Dehumanizing Factory Workers
Und ganz am Schluss mÜchte ich euch nochmal auf mein neues Podcastprojekt hinweisen: #DRANBLEIBEN - Gespräche ßber unsere Zukunftsoptionen. Dabei spreche ich mit Menschen, die neue Ideen einbringen. Die Zukunft aktiv mitgestalten. Die ihre Erkenntnisse teilen. Und die Mitstreiter*innen suchen.
đ§ In der ersten Folge geht es um Co-Creation â Zukunft gemeinsam gestalten.
Mein Gast: Stephan de Haas, Head of Co-Creation bei T-Systems. Er hat mit X-Creation eine Plattform aufgebaut, auf der Unternehmen, Wissenschaft und NGOs gemeinsam LÜsungen fßr drängende Zukunftsfragen entwickeln.
Hier kĂśnnt ihr direkt reinhĂśren:
Ich freue mich Ăźber euer Feedback hierzu! đŁď¸
Das war es fĂźr heute. Bitte leitet oder empfehlt den Newsletter doch gerne weiter âĄď¸ âď¸ - das wĂźrde mir sehr helfen. Danke euch fĂźr die Aufmerksamkeit und bis zum nächsten Mal!