Zehn Minuten Podcast. Und ein Ertappt-Gefühl.
Eine Berkeley-Studie sagt, KI verdichtet Arbeit statt zu entlasten. Die Beobachtung stimmt. Aber der Reflex, die KI dafür verantwortlich zu machen, greift zu kurz.
Letzte Woche lief im BR-Podcast „IQ — Wissenschaft und Forschung“ ein Zehn-Minüter mit dem Titel „KI am Arbeitsplatz — Darum leidet die Produktivität“. Zehn Minuten, die mich nicht mehr losgelassen haben. Es ging um eine Studie der UC Berkeley: Forscherinnen haben acht Monate lang 200 Mitarbeiter eines US-Tech-Unternehmens beobachtet und festgestellt, dass KI-Tools die Arbeit nicht reduzieren — sondern systematisch verdichten. Die Leute arbeiten schneller, übernehmen mehr Aufgaben, dehnen ihre Arbeitszeit aus. Nicht weil jemand das verlangt. Sondern weil sie es können.
Die Schlagzeilen waren vorhersehbar: „KI treibt in den Burnout!“, „Die Produktivitätslüge!“, „KI entlastet nicht!“ Und ja — die Studie hat einen Punkt. Einen wichtigen sogar. Aber die Schlussfolgerung, die daraus gezogen wird, erzählt nur die halbe Geschichte.
Die Beobachtung stimmt. Die Schlussfolgerung nicht.
Ich beschäftige mich seit Jahren mit KI — anfangs begeistert, dann zunehmend differenzierter. 2023 habe ich über ChatGPT als Chance für den Arbeitsmarkt geschrieben. 2025 darüber, wie KI unser Denken beeinflusst und warum wir KI-Halluzinationen zu leicht glauben. Heute nutze ich KI täglich — für Entwicklung, Automatisierung, Content, Datenmodellierung. Nicht als Spielerei, sondern als zentrales Werkzeug. Und ich erkenne in der Studie vieles wieder. Zu gut sogar.
Die Berkeley-Forscherinnen beschreiben drei Phänomene:
Task Expansion: Leute übernehmen Aufgaben, die nicht in ihrem Profil stehen. Der Produktmanager fängt an, Code zu schreiben. Der Designer analysiert Daten. Weil die KI es ermöglicht — also warum nicht?
Boundary Blurring: Die KI-Anfrage in der Mittagspause, der Quick Fix um 22 Uhr. Weil es „nur ein Prompt“ ist. Weil die Hürde so niedrig liegt, dass es sich nicht wie Arbeit anfühlt — obwohl es welche ist.
Multitasking-Spirale: Mehrere Threads parallel, ständig zwischen Kontexten wechseln. Die Aufmerksamkeit fragmentiert, aber es fühlt sich produktiv an.
Hand aufs Herz: Ich kenne alle drei. Nicht vom Hörensagen — aus eigener Erfahrung. Es gab Phasen, in denen ich abends um zehn noch „nur kurz einen Prompt“ losgeschickt habe. In denen ich fünf Sachen parallel laufen hatte und am Ende des Tages nicht mehr wusste, was ich eigentlich geschafft habe. Die Studie beschreibt ein reales Problem.
Aber hier trennen sich unsere Wege: Die Studie behandelt KI wie ein Naturereignis, dem Mitarbeiter ausgeliefert sind. Und die Lösung? „AI Practices“ — Regeln, Pausen, Strukturen. Management-Empfehlungen, die in PowerPoint-Decks gut aussehen und im Alltag wenig verändern.
Das greift zu kurz. Nicht weil Regeln schlecht wären. Sondern weil das eigentliche Problem woanders liegt.
Nicht die KI ist das Problem. Sondern wie wir damit umgehen.
Was ich in meiner eigenen Arbeit gemerkt habe — und was die Studie meiner Meinung nach übersieht:
Wenn ich anfange, Dinge zu tun, nur weil die KI es ermöglicht — dann ist das kein KI-Problem. Dann fehlt mir die Klarheit darüber, was meine eigentliche Aufgabe ist. „KI kann das für mich“ ist nicht gleich „ich sollte das tun“. Diese Unterscheidung muss ich selbst treffen.
Wenn die Grenzen zwischen Arbeit und Freizeit verschwimmen — dann hat nicht die KI diese Grenzen verwischt. Dann waren sie vorher schon dünn. KI macht ein bestehendes Kulturproblem sichtbarer, sie erzeugt es nicht.
Wenn ich fünf Agents parallel laufen lasse, ohne Plan — dann ist das kein Multitasking. Das ist Chaos mit KI-Garnierung.
Der Punkt ist: All das sind keine Argumente gegen KI. Es sind Argumente dafür, dass man lernen muss, mit KI zu arbeiten. Richtig zu arbeiten. Und genau das passiert in den meisten Unternehmen nicht.
Was ich für mich geändert habe
Ich sage nicht, dass ich das alles von Anfang an richtig gemacht habe. Im Gegenteil — ich bin in jede dieser Fallen gelaufen. Aber ich habe Konsequenzen gezogen, statt die KI dafür verantwortlich zu machen.
Strukturierte Workflows statt ad-hoc Prompting. Ich arbeite mit persistenten Projektkontexten, Memory-Files und klarem Scope pro Aufgabe. Das klingt nach Overhead, ist aber das Gegenteil: Es verhindert, dass ich mich in zehn parallele Rabbit Holes verliere. Der Unterschied zwischen „KI als Partner“ und „KI als ADHS-Verstärker“ ist Struktur.
Bewusste Entscheidung: Was macht die KI, was mache ich. Nicht alles, was KI kann, sollte KI tun. Und nicht alles, was KI mir ermöglicht, sollte ich deshalb anfangen. Wenn ich plötzlich Frontend-Designs baue, weil die KI das ja kann — dann habe ich nicht an Produktivität gewonnen. Dann habe ich an Fokus verloren.
Reviews als fester Bestandteil. KI-generierter Output wird geprüft. Immer. Wer KI-Ergebnisse ungeprüft übernimmt, spart keine Zeit — er verlagert die Arbeit nur nach hinten, wo sie als Fehler oder technische Schuld zurückkommt.
Grenzen setzen — aber selbst. Ich brauche keine Unternehmensrichtlinie, die mir sagt, wann ich aufhören soll. Ich brauche die Disziplin, den Laptop zuzuklappen, auch wenn „nur noch ein Prompt“ lockt. Das ist keine KI-Frage. Das ist eine Selbstführungsfrage.
Was Unternehmen daraus lernen sollten
Die Berkeley-Studie zeigt etwas Wichtiges — aber nicht das, was die Schlagzeilen suggerieren. Sie zeigt nicht, dass KI ein Problem ist. Sie zeigt, dass die meisten Unternehmen keine Ahnung haben, wie man KI sinnvoll einführt.
Kein Onboarding, keine Leitplanken, keine Kompetenzentwicklung. „Hier, Enterprise-Subscription, macht mal.“ Und dann wundert man sich, dass Leute sich in Arbeit verrennen.
Das ist, als würde man jemandem einen Porsche hinstellen und sich beschweren, dass er gegen die Wand fährt. Das Problem ist nicht der Porsche. Das Problem ist, dass niemand erklärt hat, wie man damit umgeht.
Für mich ist die Studie keine Warnung vor KI. Sie ist eine Warnung vor planlosem Einsatz — und vor einer Debatte, die lieber über „KI-Burnout“ redet, als über mangelnde Kompetenz, fehlende Führung und organisatorisches Versagen.
KI macht nicht mehr Arbeit. Fehlende Strategie macht mehr Arbeit. KI macht es nur schneller sichtbar.
Als ich 2023 über KI und den Arbeitsmarkt geschrieben habe, war ich optimistisch. Heute bin ich es immer noch — aber mit dem Wissen, dass das Werkzeug nur so gut ist wie die Hand, die es führt. Und die muss man trainieren. Nicht regulieren.
Die Originalstudie „AI Doesn’t Reduce Work — It Intensifies It“ von Aruna Ranganathan und Xingqi Maggie Ye (UC Berkeley, Haas School of Business) wurde im Februar 2026 in der Harvard Business Review veröffentlicht. Der BR-Podcast „IQ — Wissenschaft und Forschung“ hat das Thema am 25. Februar aufgegriffen.