Die Kill Chain ist ein ETL-Prozess.

Ich habe letzte Woche über einen Wal geschrieben. Über Timmy, den Buckelwal in der Ostsee. Über die Inszenierung drumherum. Über die 300.000 Wale, die jedes Jahr ohne Livestream sterben.

Lanz und Precht starten ihre neue Folge auch mit Timmy. Acht Minuten reden sie drüber. Precht macht eine Metapher daraus — „Wir sind als Deutschland inzwischen eine Art gestrandeter Wal, der mühsam von Sandbank zu Sandbank schwimmt.“ Lanz findet es rührend. Dann reden sie über den Ex-Hells-Angel im Rettungsteam, über Minister Backhaus, der dem Wal persönlich versprochen hat, ihn nach Hause zu bringen, und über eine Tierärztin, die eigentlich nur Kleintiere macht.

Acht Minuten. Keine einzige Zahl. Kein Wort über die 300.000. Kein Wort über Geisternetze, Unterwasserlärm, die fehlende globale Strandungs-Datenbank. Timmy als Metapher — und dann weiter.

Aber dann macht Lanz etwas Kluges.

Er sagt: Auf der einen Seite Menschen, die sich um ein einzelnes Leben kümmern. Auf der anderen Seite die, die gerade damit beschäftigt sind, möglichst viele andere ins Jenseits zu befördern. Und dann kommt der Iran. Und plötzlich ist die Folge eine andere.

Die Zahlen, die fehlen

Lanz liefert eine Zahl, die sitzt: 1.000 Ziele in 24 Stunden. USA und Israel, Angriff auf den Iran, Ende Februar 2026. In einem Tag. Tausend.

Er sagt den Satz, der danach im Kopf bleibt: „Erzähl mir bitte nicht, dass du das als Mensch ernsthaft überblicken kannst.“

Kann man nicht. Das ist der Punkt.

Precht ergänzt die Makroebene. SIPRI-Zahlen: Fast drei Billionen US-Dollar Militärausgaben weltweit. Historischer Höchststand. Deutschland plus 24 Prozent, jetzt bei rund 114 Milliarden. Von 50 bis 60 Milliarden vor ein paar Jahren. Der gesamte Bundeshaushalt liegt bei 550 Milliarden. Rechne nach, was das heißt.

Und dann sagt Precht den Satz, der mich nicht mehr loslässt: „Wir können eigentlich nicht mal mehr ein Interesse daran haben, dass es zur Abrüstung kommt. Das wäre wirtschaftsschädigend.“

Rüstungsprogramme für 10 bis 15 Jahre. Keine Exit-Strategie. Die Automobilindustrie will davon profitieren. Start-ups wollen Geld vom Verteidigungsministerium. Und wenn Putin morgen kapituliert — wir kriegen den Tanker nicht mehr gewendet.

Precht nennt das: „Wir machen uns zu Putins nützlichen Idioten.“

Und die Ukraine? Die will führender Waffenexporteur Europas werden. Vier Jahre Kampferfahrung als Verkaufsargument, Drohnen und KI-Aufklärung unter realen Bedingungen getestet, jetzt beraten sie die Amerikaner am Golf. Man kann das verstehen — ein Land, das alles verloren hat, baut sich aus dem auf, was es gelernt hat. Aber es bedeutet auch: noch ein Tanker, der nicht mehr gewendet werden kann. Frankreich, England, Deutschland, Ukraine — alle wollen exportieren. Und die Ukraine hat den Vorteil, dass ihre Produkte bereits im Einsatz getötet haben. Das ist das Gütesiegel der Rüstungsindustrie.

Collect. Process. Decide. Execute.

Hier höre ich auf, nur zuzuhören. Weil ich das kenne. Aus meinem Job.

Die Kill Chain — so heißt das im Militär — ist im Kern ein Daten-Workflow. Daten sammeln. Verarbeiten. Entscheiden. Ausführen. Collect. Process. Decide. Execute.

Ich arbeite seit über fünfzehn Jahren mit Daten. Ich weiß, wie man Pipelines baut, die Informationen aus verschiedenen Quellen zusammenführen, bereinigen, verdichten und in Dashboards darstellen. ETL nennt sich das — Extract, Transform, Load. Am Ende steht eine Zahl auf einem Bildschirm. Ein Umsatz. Eine Abweichung. Ein Trend.

Bei der Kill Chain steht am Ende kein Dashboard. Da steht ein Einschlag.

Palantir — die Firma, die das baut — ist an der Börse 400 Milliarden wert. Lockheed Martin, die echte Panzer und echte Raketen bauen: 128 Milliarden. Software frisst Hardware. Daten sind die Waffe.

Das System heißt Maven. Es verknüpft Satellitenbilder, Drohnenaufnahmen, Signalaufklärung, abgehörte Telefonate. Und es macht Vorschläge. Nicht irgendwann. In Echtzeit. Die Target-Identifikation wurde von Stunden auf unter eine Minute komprimiert.

Und dann sitzt da ein Mensch, der in Sekunden Ja oder Nein sagen muss. Zu einem Ziel, das er nicht kennt. Auf Basis einer Empfehlung, die er nicht überprüfen kann. In einem Tempo, das kein begründetes Nein zulässt.

Precht zitiert die Politikwissenschaftlerin Elke Schwarz: „Psychologisch sind wir so veranlagt, der Maschine mehr Vertrauen zu schenken, als wir es vielleicht tun sollten — weil uns das entlastet.“ Automation Bias nennt man das. Automatisierungsverzerrung. Wir gehen davon aus, dass die Maschine es besser weiß. Besonders wenn die Alternative ist, selbst Schuld zu tragen.

Ich kenne das aus harmlosen Kontexten. Wenn das Dashboard eine Zahl ausspuckt, hinterfragen die wenigsten. Und das bei Umsatzzahlen. Stell dir vor, die Zahl ist ein Mensch.

170 Kinder

Am 28. Februar 2026 traf eine Tomahawk-Rakete die Shajare Tayyiba Mädchenschule in Minab, Iran. Über 170 Tote. Die meisten waren Mädchen zwischen 7 und 12 Jahren.

Die Schule liegt 60 Meter neben einer Basis der Revolutionsgarden. Aber Satellitenbilder zeigen: Seit mindestens 2016 sind das zwei getrennte Anlagen. Auf Bildern von 2025 sieht man Kinder im Schulhof spielen.

Die Datenbank war veraltet. Daten von 2013.

Ich finde das armselig. Wir leben in einer Welt, in der gerade die Amerikaner in Datenbeschaffung Weltmeister sind. Echtzeit-Satellitenbilder, Signalaufklärung, KI-Auswertung — und dann schießt du auf Basis eines zehn Jahre alten Datensatzes auf eine Schule. Und dann kommt mir mein alter Lehrer Herr Wild in den Sinn. Der hat uns eingebläut: „Erst besinn’s, dann beginn’s.“ Gilt offenbar nicht für Tomahawk-Raketen.

Lanz sagt dazu: „Nicht der KI-Chatbot hat diese Mädchen getötet, sondern offensichtlich haben es Menschen versäumt, die Datenbank zu aktualisieren.“ Und andere haben ein System so schnell gemacht, dass dieser Fehler tödliche Folgen haben konnte.

Das ist die dunkelste Version von dem, was ich jeden Tag tue. Datenqualität. Aktualität von Stammdaten. Master Data Management. Ich erzähle seit Jahren Kunden, dass schlechte Daten schlechte Entscheidungen erzeugen. Ich meinte damit falsche Umsatzzahlen. Falsche Forecasts. Falsche Kalkulationen.

Nicht tote Kinder.

Aber die Mechanik ist dieselbe. Ein System, das auf veralteten Daten operiert. Menschen, die der Maschine vertrauen. Und eine Geschwindigkeit, die keine Korrektur mehr zulässt. Tausend Ziele in 24 Stunden. Wer prüft da noch die Stammdaten?

Das Werkzeug, mit dem ich schreibe

Und dann wird es persönlich. Auf eine Art, die ich nicht erwartet habe.

Lanz erwähnt beiläufig, dass die Entführung von Maduro in Venezuela mithilfe eines Sprachmodells „einer Firma namens Anthropic“ möglich wurde. Beiläufig — als wäre das ein Detail am Rande.

Es ist kein Detail.

Anthropic baut Claude. Claude ist die KI, mit der ich diese Nachlese schreibe. Mit der ich den Podcast transkribiert habe. Mit der ich Blogposts entwerfe, Recherchen strukturiere, Gedanken sortiere.

Und Claude ist auch Teil von Maven. Dem System, das die 1.000 Ziele im Iran generiert hat. Dem System, das möglicherweise an der Bombardierung der Mädchenschule beteiligt war. Das Pentagon untersucht das gerade.

Ich schreibe mit dem Werkzeug, das Ziele markiert.

Das ist kein rhetorischer Kniff. Das ist ein Fakt, den ich seit einer Stunde verdaue.

Ich war stolz auf Anthropic. Ehrlich. Die haben sich dem Pentagon verweigert, habe ich gedacht. Die haben Prinzipien. Ich habe verächtlich auf OpenAI geschaut, die sich irgendwie angebiedert haben.

Und jetzt? Die Wahrheit ist komplizierter und unbequemer. Anthropic hat tatsächlich nie direkt mit dem Pentagon gearbeitet. Aber sie haben einen kommerziellen Deal mit Palantir. Claude läuft auf Palantirs KI-Plattform — offiziell für Unternehmenskunden. Und Palantir hat milliardenschwere Verträge mit dem Pentagon. Deren Maven-System integriert Claude, und die Server stehen beim Militär. Anthropics Nutzungsrichtlinien verbieten den Einsatz für Gewalt und Überwachung. Aber sobald das Modell auf Pentagons Servern läuft, ist die Nutzungsrichtlinie ein PDF, kein Schutzschild. NBC berichtet, die Spannungen zwischen Pentagon und Anthropic seien eskaliert. Anthropic weiß, was passiert. Stoppen können oder wollen sie es nicht.

Es ist dasselbe Muster wie bei Waffenexporten: Land A verkauft an Land B, Land B gibt weiter an Land C. Endverbleibsklauseln gibt es bei Software nicht.

Dual Use nennt man das. Dieselbe Technologie, die mir beim Schreiben hilft, hilft beim Zielen. Das ist kein Dilemma, das man lösen kann. Das ist eins, mit dem man leben muss. Und ich bin mir nicht sicher, ob ich damit zurechtkomme.

Ich habe vor ein paar Tagen einen Text über KI geschrieben. „Homo Idioticus“ heißt er. Darin steht der Satz: „Die Leute, die KI am besten verstehen, sind die, die am lautesten warnen.“ Geoffrey Hinton. Mustafa Suleyman. Leute, die das Fundament gelegt haben und sich jetzt trösten müssen.

Ich frage mich, ob die Entwickler bei Anthropic sich auch trösten.

Und Alexander Karp lächelt

Lanz nennt Palantir-CEO Alexander Karp „aus meiner Sicht einen der gefährlichsten Menschen der Welt, wahrscheinlich noch gefährlicher als Elon Musk.“

Karp hat ein Manifest veröffentlicht. Darin steht:

Kein anderes Land habe so fortschrittliche Werte so stark gefördert wie Amerika — während andere Kulturen „dysfunktional und rückschrittlich“ bleiben. Die Kastration Deutschlands und Japans nach dem Zweiten Weltkrieg sei ein Fehler gewesen. Regulierung von KI-Waffen sei falsch, weil die Feinde sich auch nicht einschränken würden. Und Amerika müsse dem „leeren, hohlen Pluralismus“ widerstehen.

Precht nennt das „Kulturfaschismus“. Ich finde kein besseres Wort.

Und dieser Mann betreibt das System, mit dem die bayerische Polizei arbeitet. Mit dem ICE-Agenten in Minneapolis Zielpersonen jagen — Augenfarbe, Aufenthaltsorte, Social-Media-Posts, alles KI-kombiniert. Ein Staat, sagt Lanz, der sich von China nicht mehr wesentlich unterscheidet.

Der Mensch ist kleiner als er selbst

Precht zitiert Günther Anders. „Der Mensch ist kleiner als er selbst.“ Wir sind in der Lage, technisch grandiose Dinge herzustellen. Und setzen sie für Fürchterliches ein. Und sind in unserem moralischen Bewusstsein nicht mitgereift.

Das ist der Satz, der über dieser ganzen Folge hängt. Und — wenn ich ehrlich bin — über allem, was ich in den letzten Wochen geschrieben habe.

Timmy: Wir retten einen Wal und können nicht mal zählen, wie viele wir töten. Israel-Kritik: Wir trauen uns nicht mehr, Dinge auszusprechen. Homo Idioticus: Wir werden technisch klüger und moralisch nicht weiser. Und jetzt diese Folge — KI, die Kriege führt, schneller als unser Gewissen.

Es gibt einen Moment in der Folge, den Lanz erzählt und den ich nicht vergessen werde. Ein Scharfschütze im Irak. Garrett Rappenhagen. Der Mann hat wochenlang durch sein Fernrohr ein Ziel beobachtet. Er kannte dessen Lachen. Wusste, dass er Kinder hat. Und musste trotzdem abdrücken. Es hat ihn zerstört.

Die Kill Chain eliminiert genau das. Du kennst den Menschen nicht. Du siehst ihn nicht. Du hast keine Sekunde, um nachzudenken. Und die Maschine sagt: Jetzt.

Lanz fragt: Wählt eine KI die Option, absichtlich daneben zu schießen? Um den anderen zur Flucht zu bewegen? Um ein Leben zu verschonen, das vielleicht verschont werden sollte?

Die Antwort ist: Nein. Natürlich nicht.

Precht sagt: Alle ethischen Selbstverpflichtungen — in dem Moment, wo ein Ernstfall eintritt, schlagen wir sofort ins komplette Gegenteil um. Deutschland wollte KI-Waffen ächten. Stand noch im Koalitionsvertrag der Ampel. Jetzt wollen wir mitführend sein.

Ein KI-Moratorium wie bei Atomwaffen? Nirgendwo in Sicht. Und Precht erklärt, warum: Atomwaffen sind kein großes Geschäft. KI-Waffen sind ein gigantisches Geschäft. Palantir, 400 Milliarden. Und die Entwicklung kann jeder — auch, wie Precht sagt, jedes mexikanische Drogenkartell. Keine Zentrifugen nötig. Keine Trägerraketen. Nur Software.

Bonhoeffer in der Zelle

Ich habe vor ein paar Jahren ein Stück aufgenommen. Am Klavier, abends, den Kopf voll. „Von guten Mächten wunderbar geborgen“ — das Lied von der Beerdigung meines Vaters. Bonhoeffer hat den Text 1944 in einer Gestapo-Zelle geschrieben. An seine Verlobte. Er wusste, dass er sterben würde.

Aus meiner Aufnahme ist nach vielen Jahren mit Hilfe von KI ein vollständiges Stück geworden. Mit Oboe und Harfe. So, wie es in meinem Kopf war, aber meine Finger nie spielen konnten. Ich hatte dabei einen Kloß im Hals.

Dieselbe Technologie. Mir gibt sie Musik. Dem Pentagon gibt sie Ziele.

Und Bonhoeffer? Der saß in einer Zelle der Gestapo, wissend, dass er sterben würde. Und schrieb trotzdem Hoffnung auf. In einer Welt, die damals genauso sicher war, dass Gewalt die Antwort ist.

Achtzig Jahre später haben wir die klügsten Maschinen der Menschheitsgeschichte gebaut. Und nutzen sie, um schneller zu töten als wir denken können.

Der Mensch ist kleiner als er selbst.

Kurz und knapp: Lanz & Precht #243 behandelt den Einsatz von KI in modernen Kriegen. Zentrale Fakten: Die USA und Israel trafen im Iran 1.000 Ziele in 24 Stunden — gesteuert durch Palantirs Maven-System, das auch Claude von Anthropic integriert. Beim Angriff auf die Shajare Tayyiba Mädchenschule in Minab starben über 170 Menschen, überwiegend Mädchen zwischen 7 und 12 — mutmaßlich wegen veralteter Zieldaten (Satellitenbilder von 2013, Schule und Militärbasis seit 2016 getrennt). Palantir ist mit 400 Mrd. USD bewertet — dreimal so viel wie Lockheed Martin. Globale Militärausgaben erreichten laut SIPRI fast 3 Billionen USD (historischer Rekord), Deutschland steigerte um 24 Prozent. Alexander Karps Manifest fordert das Ende von KI-Waffenregulierung und nennt andere Kulturen „dysfunktional“.

Quellen: Amnesty International — Iran School Strike, CNN Investigation — Minab School, Democracy Now — Palantir/Maven, Axios — Anthropic/Claude in Maduro Raid, NBC News — Tensions Between Pentagon and Anthropic, Scientific American — Timmy Rescue, SIPRI Yearbook 2025, Transkript Lanz & Precht #243 (01.05.2026)

Ähnliche Beiträge