Geklaute Bücher, ehrliche Hinweise.

Unter meinen letzten LinkedIn-Posts steht ein Satz: „Recherche und Datenaufbereitung mit Claude (Anthropic). Alle Quellen verifizierbar.“

Ich schreibe das freiwillig. Seit ein paar Wochen. Weil ich finde, dass Leute wissen sollten, wie ein Text entstanden ist. Nicht weil ich muss. Sondern weil ich es richtig finde.

Ab August 2026 muss ich das. Artikel 50, EU AI Act. Wer KI-Inhalte beruflich veröffentlicht, muss kennzeichnen. Bußgelder bis 15 Millionen Euro. Das Gesetz macht aus meiner Haltung eine Pflicht. Damit kann ich leben.

Womit ich schwerer leben kann: Die KI, mit der ich arbeite, wurde mit geklauten Büchern trainiert.

1,5 Milliarden Dollar für 500.000 Bücher

Im September 2025 hat Anthropic — die Firma hinter Claude, dem Tool, das ich jeden Tag nutze — 1,5 Milliarden Dollar gezahlt. Größter Copyright-Settlement der US-Geschichte. Drei Autoren hatten geklagt: Andrea Bartz, Charles Graeber, Kirk Wallace Johnson. Der Vorwurf: Anthropic hat rund 500.000 Bücher von Piraten-Bibliotheken heruntergeladen — Library Genesis, Pirate Library Mirror — und damit Claude trainiert.

500.000 Bücher. Nicht lizenziert. Nicht bezahlt. Einfach genommen.

Das Settlement rechnet sich auf ungefähr 3.000 Dollar pro Buch. Für ein Lebenswerk, das jemand in Monaten oder Jahren geschrieben hat. 3.000 Dollar. Nachträglich. Nachdem man erwischt wurde.

Anthropic hat sich verpflichtet, die heruntergeladenen Werke zu löschen. Aber — und das ist der entscheidende Punkt — das Settlement gibt Anthropic keine Lizenz für die Zukunft. Claude wurde mit diesen Büchern trainiert. Das Wissen ist im Modell. Man kann Trainingsdaten nicht „entlernen“. Das Löschen der Dateien ist Symbolik. Die Bücher stecken in jeder Antwort, die Claude gibt.

Auch in den Recherchen zu diesem Text. Ich schreibe ihn. Ich forme ihn. Ich entscheide, was drin steht und was nicht. Aber die KI, die mir dabei hilft, trägt das Wissen aus 500.000 Büchern in sich, für die niemand gefragt wurde.

„Kreative dürfen nicht zu Datenlieferanten degradiert werden“

Am 10. März 2026 — letzte Woche — hat das Europäische Parlament abgestimmt. 460 Ja-Stimmen, 71 Nein, 88 Enthaltungen. Ein Initiativbericht über Urheberrecht und generative KI. Die Forderungen: Transparenz darüber, welche Werke zum Training verwendet wurden. Angemessene Vergütung für Rechteinhaber. Opt-Out-Möglichkeiten. Ein europäischer Lizenzmarkt.

Vier Tage vorher, am 6. März, hat das britische House of Lords seinen Report veröffentlicht: „AI, copyright and the creative industries.“ Die Überschrift: „Clear and present danger.“ Die britische Kreativwirtschaft — 124 Milliarden Pfund, 2,4 Millionen Jobs — sieht sich bedroht durch Systeme, die auf ihren Werken trainiert wurden, ohne zu fragen und ohne zu zahlen.

Zwei Parlamente, eine Woche, dieselbe Botschaft: So geht das nicht weiter.

Die Ironie, die mich nicht losslässt

Ich sitze hier und schreibe einen Blogpost. Mit Hilfe einer KI. Die KI ist gut. Sie ist schnell, sie ist nützlich, sie macht mich produktiver. Ich streite mit ihr, ich korrigiere sie, ich forme den Text — aber sie liefert mir Zusammenhänge, Quellen, Formulierungen, die ich alleine langsamer gefunden hätte.

Und diese KI kann das, weil sie die Bücher von anderen Leuten gelesen hat. Ohne zu fragen. Ohne zu bezahlen.

Ich habe dafür nicht bezahlt. Anthropic hat dafür nicht bezahlt — jedenfalls nicht vorher. Jetzt zahlen sie 1,5 Milliarden. Nachträglich. Weil sie erwischt wurden.

Das ist die Ironie: Ich fordere Transparenz bei meiner KI-Nutzung. Aber die Basis, auf der diese KI funktioniert, ist intransparent. Ich kennzeichne meinen Output ehrlich. Aber der Input meiner KI war — zumindest teilweise — geklaut.

Wie gehe ich damit um?

Was ich für mich entschieden habe

Erstens: Ich höre nicht auf, KI zu nutzen. Das wäre so, als würde ich aufhören, im Internet zu recherchieren, weil Google auch von fragwürdigen Crawling-Praktiken profitiert hat. Oder als würde ich kein Smartphone mehr benutzen, weil die Lieferketten problematisch sind. Perfekte Werkzeuge gibt es nicht. Aber Ehrlichkeit darüber, was man nutzt — die gibt es.

Zweitens: Ich kennzeichne weiter. Nicht weil es ab August Pflicht wird. Sondern weil ich will, dass die Leser entscheiden können. Wenn jemand sagt „Ich lese nichts, das mit KI geschrieben wurde“ — fair enough. Dann weiß er Bescheid. Aber er soll es wissen, nicht raten müssen.

Drittens: Ich finde die Settlements und Klagen richtig. 70 Klagen laufen weltweit gegen KI-Firmen. YouTuber gegen Snap. Autoren gegen OpenAI. Musiker gegen alles und jeden. Das ist kein Kulturkampf. Das ist Eigentumsrecht. Wenn jemand mein Buch nimmt und damit Geld verdient, will ich gefragt werden. Und bezahlt. Das ist keine radikale Position. Das ist Grundkurs Anstand.

Was ab August passiert

Die KI-Kennzeichnungspflicht greift am 2. August 2026. Wer KI-Inhalte beruflich veröffentlicht, muss kennzeichnen. Es gibt eine Ausnahme: Wenn „umfassende menschliche redaktionelle Kontrolle und Verantwortung“ vorliegt, entfällt die Pflicht.

Die meisten Blogger, Creator, Unternehmen werden sich auf diese Ausnahme berufen. „Ich hab ja drübergelesen.“ Und formal wird das reichen. Aber es ist ein Unterschied, ob ich sage „Das ist mein Text, ich hab KI als Werkzeug genutzt“ — oder ob ich so tue, als wäre alles aus meinem Kopf gefallen.

Ich finde: Ehrlichkeit ist kein Nachteil. Sie ist ein Qualitätsmerkmal. Wer offenlegt, wie ein Text entsteht, zeigt, dass er nichts zu verstecken hat. Und wer es nicht tut, muss sich fragen lassen, warum.

Die Frage, die bleibt

Ich nutze eine KI, die mit geklauten Büchern trainiert wurde. Ich weiß das. Ich sage es offen. Ich finde es falsch. Und ich nutze sie trotzdem.

Ist das heuchlerisch? Vielleicht. Ist es ehrlich? Definitiv. Beides gleichzeitig geht. Und ich glaube, das ist besser als die Alternative — so tun, als gäbe es das Problem nicht, und den Transparenzhinweis weglassen, weil’s unbequem ist.

460 Abgeordnete haben letzte Woche gesagt: Es muss sich etwas ändern. Die Kreativen — Autoren, Musiker, Grafiker — haben recht. Ihre Arbeit hat Wert. Und dieser Wert darf nicht einfach abgesaugt werden, damit ich schneller bloggen kann.

Aber die Lösung ist nicht, aufzuhören. Die Lösung ist, es richtig zu machen. Transparent. Lizenziert. Bezahlt. Und bis dahin: ehrlich darüber sein, dass wir es noch nicht sind.

Quellen: Europäisches Parlament, Initiativbericht „Urheberrecht und generative KI“ (10. März 2026). UK House of Lords, Communications and Digital Committee, „AI, copyright and the creative industries“ (6. März 2026). Bartz v. Anthropic, Settlement $1,5 Mrd. (September 2025, Fairness Hearing April 2026). EU AI Act, Artikel 50, Kennzeichnungspflicht (ab 2. August 2026). Copyright Alliance, AI Lawsuit Tracker (70+ Cases, Stand März 2026).

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert