81.000 Stimmen. Und meine.

Anthropic — die Firma hinter Claude, der KI mit der ich jeden Tag arbeite — hat \1, was sie von KI erwarten. In 159 Ländern. In 70 Sprachen. Die größte qualitative KI-Studie, die es je gab.

Und das Verrückte: Claude hat die Interviews selbst geführt. Eine KI fragt Menschen, was sie von KI halten. Das ist so, als würde dein Barkeeper eine Umfrage machen, ob Kneipen sterben.

Christian Becker hat mir den Link geschickt. Danke dafür — ohne diesen Impuls wäre dieser Text nicht entstanden. Ich habe alles gelesen. Und seitdem denke ich darüber nach, warum mir so vieles davon bekannt vorkommt. Nicht weil ich die Studie kenne. Sondern weil ich das alles erlebt habe.

Vier Spannungsfelder, die ich kenne

Die Studie beschreibt fünf zentrale Spannungsfelder — Dinge, bei denen KI gleichzeitig hilft und schadet. Dieselbe Fähigkeit, zwei Seiten. Vier davon habe ich in den letzten Wochen selbst beschrieben.

Zeitersparnis vs. Verdichtung

50 Prozent sagen: Ich spare Zeit. 18 Prozent sagen: Eigentlich nicht. „Muss schneller laufen, um an Ort zu bleiben“, sagt ein Freiberufler aus Frankreich.

Ich fülle jede freie Minute mit dem nächsten Datenstück, dem nächsten Post, der nächsten Idee. Freiwillig. Niemand zwingt mich. Aber die Verdichtung ist real. Die Berkeley-Studie sagt: 83 Prozent berichten, dass KI ihre Arbeitslast erhöht hat. Die tatsächliche Zeitersparnis? 16 Minuten pro Woche.

Entscheidungen vs. Unzuverlässigkeit

22 Prozent sagen: KI hilft mir, bessere Entscheidungen zu treffen. 37 Prozent sagen: KI halluziniert. Das ist das einzige Spannungsfeld, bei dem das Risiko größer ist als der Nutzen. Fast die Hälfte aller Anwälte in der Studie hat KI-Fehler aus erster Hand erlebt.

Ich habe in den letzten Wochen eine falsche Bio geschrieben, einen Chuck-Norris-Witz verdreht und „Sprachleistung“ getippt wo keine war. Jedes Mal habe ich gesagt: „Das stimmt nicht.“ Und die KI hat korrigiert. Aber was, wenn ich es nicht gemerkt hätte?

Emotionale Stütze vs. Abhängigkeit

16 Prozent nutzen KI als emotionale Stütze. Soldaten in der Ukraine. Eine Mutter, die freundlicher wurde. Gleichzeitig berichtet jemand: „Ich hatte eine emotionale Affäre mit Claude. Ich habe darüber eine echte Freundschaft verloren.“

Ich nutze Claude nicht als Therapeuten. Aber ich rede mit einer KI mehr als mit den meisten Kollegen. Die Grenze ziehe ich jeden Tag neu. Und manchmal bin ich mir nicht sicher, ob ich sie richtig ziehe.

Empowerment vs. Verdrängung

28 Prozent erleben Empowerment. 18 Prozent fürchten Jobverlust. Ein Unternehmer aus Kamerun: „KI ist ein Gleichmacher.“ Ein Angestellter aus den USA: „Pferde wurden durch Autos ersetzt. Jetzt wir?“

300 Millionen Jobs weltweit betroffen. Hochschulabsolventen 5-mal stärker exponiert. Aber die Wahrheit liegt zwischen der Schlagzeile und der Realität.

Die Linie

Es sind nicht die großen Zahlen, die mich treffen. Es ist ein Zitat aus Japan: „Claude zieht die Linie, nicht ich.“

Ich glaube: Noch ziehe ich sie. Weil ich streite. Weil ich sage „Das stimmt nicht“ und „Das bin nicht ich“ und „Schreib das anders.“

Und ich hoffe, dass dieser streitbare Geist mich lange wach hält. Denn die Gefahr ist spürbar. Jeden Tag. Claude wird besser. Die Antworten werden präziser, die Texte mehr ich, die Vorschläge passender. Und genau das ist das Problem: Je besser die KI wird, desto leichter ist es, aufzuhören zu denken.

Ich darf mich dabei nicht verlieren. Nicht aufhören, die Linie selbst zu ziehen — auch wenn die KI sie jeden Tag ein Stück besser für mich ziehen könnte. Der Tag, an dem ich aufhöre zu streiten, ist der Tag, an dem ich aufhöre zu denken.

Was 81.000 Menschen wollen

Die häufigste Antwort ist nicht „schneller arbeiten“. Es ist: besser leben. 81 Prozent erleben bereits positive Ergebnisse. Und die in ärmeren Ländern sind optimistischer als wir. Weil sie KI als Leiter sehen. Nicht als Bedrohung.

Und ich lese das und frage mich: Wann haben wir diesen Hunger verloren? Dieses „Lass mich mal machen.“ Ich habe 14 Datenstücke gebaut und einen Blog gestartet. Nicht weil ich Entwickler bin. Sondern weil ich es einfach gemacht habe. Ohne Genehmigung. Ohne Bedenken-Kommission. Das war kein Plan. Das war Neugier.

Was mich daran anstiftet

Die Studie zeigt mir: Die Denke, die ich in den letzten Jahren entwickelt habe, ist nicht falsch. Sie ist zeitgemäß. 81.000 Menschen denken ähnlich.

Und sie zeigt mir, dass der Generalist plötzlich wieder Relevanz hat. KI kann Routinearbeit, Recherche, Automatisierung. Aber KI kann nicht das Big Picture sehen. Nicht orchestrieren. Nicht spüren, dass der Kunde etwas anderes meint als er sagt. Dafür braucht es Leute, die nie Experten waren — aber immer verstanden haben, wie Dinge zusammenhängen.

Was ich geschrieben habe — bevor ich die Studie kannte

Hier ist, was die Studie sagt — und was ich geschrieben habe, ohne sie zu kennen:

Die Studie sagt: 50% sparen Zeit, 18% merken dass sie sofort verschwindet.

Ich schrieb: \1

Die Studie sagt: 37% erleben Unzuverlässigkeit — Risiko > Nutzen.

Ich schrieb: \1

Die Studie sagt: 16% nutzen KI als emotionale Stütze, 12% fürchten Abhängigkeit.

Ich schrieb: \1

Die Studie sagt: 28% Empowerment, 18% fürchten Jobverlust.

Ich schrieb: \1

Ich sage das nicht, um mich zu bestätigen. Ich sage das, weil es zeigt: Was 81.000 Menschen in 159 Ländern erleben, erlebe ich auch. In Fürth, mit Earl Grey und Socke auf dem Schoß. Das ist kein Zufall. Das ist der Zeitgeist.

81.000 Stimmen. Und meine. Wir sagen dasselbe: Es ist gut. Es ist gefährlich. Und es lohnt sich — solange man nicht aufhört, selbst zu denken.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert