Alle denken gleich. Sagt die KI.
„KI macht uns alle gleich.“ So oder so ähnlich ging letzte Woche eine Schlagzeile durch die Tech-Medien. USC-Forscher warnen. Große Studie. 130 Quellen. Klingt bedrohlich.
Ich hab’s gelesen. Und dann nochmal. Und beim dritten Mal dachte ich: Moment. Da stimmt was nicht an der Geschichte.
Was in der Zeitung steht
Drei Forscher der University of Southern California — zwei Doktoranden und ein Professor — haben ein Paper veröffentlicht: The homogenizing effect of large language models on human expression and thought. In Trends in Cognitive Sciences, einem renommierten Journal. Die These: Wenn Milliarden Menschen dieselben Chatbots nutzen, wird unser Denken, Schreiben und Argumentieren gleichförmiger. Weniger Vielfalt, weniger eigene Stimme, weniger kognitive Diversität.
Die Medien haben daraus gemacht: USC-Forscher beweisen, dass KI uns gleichschaltet.
Was in der Zeitung nicht steht
Das Paper ist kein Experiment. Kein Labor. Keine Probanden. Es ist ein Opinion Paper — eine Zusammenfassung und Interpretation von bestehender Literatur. Die drei Forscher haben über 130 Studien gesichtet und daraus eine Argumentation gebaut. Das ist legitim. Das ist wissenschaftlich anerkannt. Aber es ist kein Beweis. Es ist eine Meinung. Eine fundierte Meinung, ja — aber eben eine Meinung.
Das ist ein wichtiger Unterschied. Und er geht in der Berichterstattung komplett unter.
Was die Daten wirklich sagen
Die stärkste Studie, die das Paper zitiert, kommt von Doshi und Hauser, veröffentlicht 2024 in Science Advances. 300 Leute schrieben Kurzgeschichten — acht Sätze lang. Eine Gruppe ohne KI, eine mit einer KI-Idee, eine mit bis zu fünf. 600 Juroren bewerteten die Ergebnisse.
Das Ergebnis ist tatsächlich interessant. Und widersprüchlich.
Die Geschichten mit KI-Unterstützung waren besser: 8 Prozent origineller, 9 Prozent nützlicher, 26 Prozent besser geschrieben. Schwächere Autoren profitierten am meisten — plus 10,7 Prozent bei Originalität. KI als Equalizer. Soweit die gute Nachricht.
Die schlechte: Die KI-unterstützten Geschichten waren sich untereinander ähnlicher. 10,7 Prozent mehr Übereinstimmung, gemessen mit — und jetzt wird es kurios — OpenAI-Embeddings. Also: Eine KI misst, ob Texte, die mit KI geschrieben wurden, sich ähneln. Da beißt sich was.
Und wir reden hier von Acht-Satz-Geschichten. Nicht von menschlichem Denken. Nicht von Weltanschauungen. Nicht von der Art, wie jemand ein Problem löst oder eine Entscheidung trifft. Der Sprung von „Kurzgeschichten werden ähnlicher“ zu „KI homogenisiert menschliches Denken“ — den machen die Medien. Nicht die Daten.
Die Warner warnen. Aber vor was genau?
Zhivar Sourati, der Erstautor, sagt:
„Selbst wenn Menschen keine direkten KI-Nutzer sind, werden sie indirekt beeinflusst. Wenn alle um mich herum auf eine bestimmte Art denken und sprechen, spüre ich den Druck, mich anzupassen.“
Das klingt einleuchtend. Aber ist das ein KI-Problem? Oder beschreibt er einfach — Konformismus? Den gab es vor ChatGPT. Den gab es vor dem Internet. Den gab es im Büro, am Stammtisch, im Klassenzimmer. Menschen passen sich an. Das ist keine Nebenwirkung von Technologie. Das ist Sozialpsychologie. Solomon Asch hat das 1951 gezeigt, mit Linien auf Karteikarten und null Algorithmus.
Und dann der WEIRD-Bias: LLMs spiegeln überproportional westliche, gebildete, reiche Gesellschaften wider, sagen die Forscher. Stimmt wahrscheinlich. Aber das sagen drei Forscher an einer der teuersten Universitäten der westlichen Welt. Der blinde Fleck ist nicht falsch beschrieben — er ist nur nicht so exklusiv, wie die Autoren tun.
Mein eigener Test
Ich nutze KI. Jeden Tag. Intensiv. Claude, ChatGPT, Gemini — je nach Aufgabe. Und ja, ich lasse Texte gegenlesen, Ideen generieren, Code schreiben. Seit über einem Jahr.
Werde ich gleichförmiger?
Ehrlich: Ich glaube das Gegenteil. Seit ich KI nutze, denke ich mehr, nicht weniger. Weil die Routinearbeit wegfällt. Weil ich schneller an den Punkt komme, an dem es interessant wird — die Frage hinter der Frage, die Perspektive, die ich alleine nicht gesehen hätte.
Aber — und das ist der entscheidende Punkt — ich nutze KI. Ich folge ihr nicht. Ich streite mit meinem Chatbot. Ich sage „Nein, das ist Quatsch“ und „Denk nochmal nach“ und „Das klingt wie ein LinkedIn-Post, schreib das anders.“ Die KI ist mein Sparringspartner, nicht mein Ghostwriter.
Und da liegt vielleicht der eigentliche Punkt, den die USC-Forscher machen, ohne ihn klar auszusprechen: Das Problem ist nicht die KI. Das Problem ist, wenn man aufhört, selbst zu denken. Aber das war schon vor ChatGPT so. Da hieß es nur anders: Copy-Paste aus Wikipedia. Nachplappern vom Chef. Teilen ohne Lesen.
Precht hatte Recht. Aber anders als er denkt.
Richard David Precht schreibt in Künstliche Intelligenz und der Sinn des Lebens:
„Was sich nicht der Norm fügt oder nicht grundsätzlich optimierbar ist, wird sofort als Problem identifiziert. Doch Leben ist nicht schablonenhaftes Problemlösen.“
Er meint das als Warnung vor KI. Aber der Satz funktioniert auch als Warnung vor der Debatte über KI. Denn genau das passiert gerade: Ein Opinion Paper wird zur Studie. Eine Hypothese wird zum Beweis. Eine differenzierte Frage wird zur Schlagzeile. Und niemand liest das Kleingedruckte.
Das ist die eigentliche Homogenisierung. Nicht die der Chatbots — die der Berichterstattung. Alle schreiben dasselbe über dieselbe „Studie“, ohne reinzuschauen. Wenn das kein Konformismus ist, was dann?
Die Frage, die bleibt
Macht KI uns gleicher? Möglich. Wenn wir sie als Denkersatz nutzen statt als Denkwerkzeug. Wenn wir den ersten Vorschlag nehmen und nicht nachfragen. Wenn wir aufhören, mit dem Ergebnis zu streiten.
Aber das ist keine KI-Frage. Das ist eine Haltungsfrage.
300 Leute haben ähnlichere Kurzgeschichten geschrieben, als sie KI-Ideen bekamen. Das ist ein Datenpunkt. Kein Weltuntergang. Und definitiv kein Beweis, dass Milliarden Menschen aufhören, eigenständig zu denken.
Vielleicht ist das Problem nicht, dass KI uns gleichmacht. Vielleicht ist das Problem, dass viele schon vorher gleich gedacht haben — und KI es jetzt nur sichtbar macht.
Neugier war noch nie automatisierbar. Das ist die gute Nachricht.
👉 Datenstück #8: Schneller als du denkst — die Beschleunigung der KI in Zahlen
Quellen: Sourati, Ziabari & Dehghani, „The homogenizing effect of large language models on human expression and thought“, Trends in Cognitive Sciences (2026). Doshi & Hauser, „Generative AI enhances individual creativity but reduces the collective diversity of novel content“, Science Advances (2024). Asch, „Effects of group pressure upon the modification and distortion of judgments“ (1951). Precht, „Künstliche Intelligenz und der Sinn des Lebens“ (2020).