Wenn Maschinen mitreden.
Vor ein paar Tagen habe ich geschrieben: Reden hilft. Wahrheit entsteht im Gespräch. Habermas. Herrschaftsfreier Diskurs. Zuhören, um zu verstehen.
Am selben Wochenende lese ich eine Studie aus Science — dem Wissenschaftsmagazin, nicht dem Fiction-Genre — und denke: Was, wenn das Gespräch selbst nicht mehr vertrauenswürdig ist?
Schwärme
21 Wissenschaftler aus Norwegen, den USA, Deutschland und sechs weiteren Ländern haben aufgeschrieben, was technisch bereits möglich ist. Nicht in zehn Jahren. Jetzt.
KI-Agenten — lernfähige Softwaresysteme, die selbstständig handeln — können sich mithilfe großer Sprachmodelle glaubhaft an öffentlichen Debatten beteiligen. Sie können auf Einwände reagieren, Argumente anpassen, Ton und Stil variieren. Sie erwecken überzeugend den Eindruck, menschliche Diskussionsteilnehmer zu sein.
Einer allein wäre ein besserer Chatbot. Aber in Schwärmen? Hunderte, tausende solcher Agenten, die miteinander kommunizieren, ihr Verhalten koordinieren und kollektiv optimieren? Das ist etwas anderes. Das ist, was die Forscher eine „neue Frontlinie der Informationskriegsführung“ nennen.
Was sie können
Die Studie beschreibt fünf Fähigkeiten solcher Schwärme:
Dezentrale Orchestrierung. Kein zentraler Server, der abgeschaltet werden kann. Die Agenten organisieren sich selbst.
Infiltration von Gemeinschaften. Sie treten Foren bei, kommentieren auf Social Media, beteiligen sich an Diskussionen. Nicht mit Spam — mit Argumenten. Maßgeschneidert für die jeweilige Community.
Erkennung umgehen. Anders als herkömmliche Trolle, die durch stereotype Muster auffallen, passen KI-Agenten ihr Verhalten an. Sie lernen, was funktioniert, und werden besser darin, nicht aufzufallen.
Kontinuierliche Optimierung. Was nicht wirkt, wird angepasst. Was wirkt, wird verstärkt. In Echtzeit. In einem Tempo, das für Menschen unmöglich ist.
Persistenz. Sie hören nicht auf. Sie werden nicht müde. Sie verlieren nicht die Lust. Sie sind geduldig — unendlich geduldig.
Kommt dir das bekannt vor? Unendliche Geduld. Null Ego. Das habe ich neulich über meine KI geschrieben. Dieselben Eigenschaften, die Claude zu einem guten Sparringspartner machen, machen einen KI-Schwarm zum perfekten Propagandainstrument.
Epistemischer Schwindel
Die Forscher benutzen einen Begriff, der mir nicht mehr aus dem Kopf geht: epistemischer Schwindel. Das Gefühl — oder die Realität —, dass man nicht mehr unterscheiden kann, was wahr ist und was nicht. Nicht weil die Fakten fehlen, sondern weil das Vertrauen fehlt. In die Quellen. In die Gesprächspartner. In den Unterschied zwischen Mensch und Maschine.
Habermas hat sein ganzes Leben darauf gebaut, dass der Diskurs funktioniert. Dass das bessere Argument gewinnt. Aber was, wenn die Hälfte der Argumente von Maschinen kommt, die kein Interesse an Wahrheit haben? Die nicht überzeugen wollen, sondern überfluten?
Das ist kein Science-Fiction-Szenario. Die Studie verweist auf das „Pravda“-Netzwerk — eine pro-russische Desinformationsoperation, die offenbar gezielt Inhalte für Maschinen produziert. Nicht für Menschen. Für KI-Trainingsdaten. „LLM Grooming“ nennen die Forscher das: Vergiftung der Datenbasis, aus der zukünftige KI-Modelle lernen.
Was mich daran beschäftigt
Ich nutze KI jeden Tag. Ich verteidige das. Ich sage: Reden hilft — auch mit Maschinen. Ich schreibe Transparenzhinweise. Ich streite mit meinem Chatbot und finde das produktiv.
Aber diese Studie zwingt mich, weiter zu denken. Denn die KI, mit der ich rede, ist ein Werkzeug. Ich kontrolliere, was ich damit mache. Aber was passiert, wenn tausend andere KIs gleichzeitig reden — und niemand weiß, dass sie keine Menschen sind?
Dann wird aus dem Gespräch eine Inszenierung. Aus dem Diskurs eine Simulation. Aus Habermas‘ bestem Argument — ein Algorithmus, der gelernt hat, was wie ein gutes Argument klingt.
Was man tun kann
Die Forscher schlagen ein „transnationales KI-Einfluss-Observatorium“ vor — ein Netzwerk aus Fachleuten und NGOs, das KI-Schwärme aufspürt und entlarvt. Klingt gut. Klingt auch nach viel Bürokratie.
Pragmatischer: Firmen, die demokratiegefährdende Software anbieten, müssen sanktioniert werden. Firmen, die Schutzmaßnahmen entwickeln, müssen gefördert werden. KI selbst kann helfen, nichtmenschliche Agenten zu erkennen — schon heute werde ich beim Aufruf einer Website gefragt, ob ich ein Mensch oder ein Computer bin.
Aber die ehrlichste Antwort ist unbequem: Es gibt keine technische Lösung für ein Vertrauensproblem. Technik kann helfen. Regulierung kann bremsen. Aber am Ende brauchen wir genau das, was Habermas ein Leben lang gepredigt hat: Kritische Urteilsfähigkeit. Die Fähigkeit zu fragen: Wer sagt das? Warum? Mit welchem Interesse?
Das ist anstrengend. Das ist langsam. Das skaliert nicht. Aber es ist das Einzige, was Maschinen nicht simulieren können: echtes Denken. Noch nicht.
Reden hilft. Noch.
Vor ein paar Tagen war ich optimistisch. Heute bin ich es immer noch — aber wachsamer. Weil die Werkzeuge, die mir beim Denken helfen, dieselben Werkzeuge sind, die den Diskurs zerstören können. Es kommt darauf an, wer sie benutzt. Und wofür.
Habermas ist vor kurzem gestorben. Sein Credo — Wahrheit entsteht im Gespräch — war nie wichtiger. Und nie gefährdeter.
Reden hilft. Aber nur, wenn ein Mensch am anderen Ende sitzt. Oder zumindest einer, der ehrlich sagt, dass er keiner ist.
Quelle: Schroeder, D.T., Kunst, J.R. et al., „How malicious AI swarms can threaten democracy“, Science, 10.1126/science.adz1697, Januar 2026. 21 Autoren, 10 Länder. Gelesen im Spektrum der Wissenschaft 4/2026 — das Jahresabo ein Geburtstagsgeschenk von Helga. Danke dafür. Bei Earl Grey mit Milch, was auch sonst.
Zusammenfassung: KI verändert nicht nur, wie wir arbeiten, sondern wie wir Entscheidungen treffen — in Unternehmen, in der Politik, im Alltag. Der Beitrag fragt, was passiert, wenn Maschinen mitreden und Menschen aufhören, selbst zu urteilen.
Quellen: Eigene Reflexion auf Basis aktueller KI-Entwicklungen 2026