Homo Idioticus.

Ich bin ruhiger geworden beim Thema KI. Nicht weil es mich weniger interessiert. Sondern weil es mich mehr und mehr beunruhigt.

Vor kurzem war ich noch begeistert. Prompts optimieren, Workflows automatisieren, Tools testen. Ich bin Nerd, ich kann nicht anders. Aber gerade hat sich was verschoben. Und jetzt rasen mir Fragen durch den Kopf, für die ich keine Antworten habe.

Wie schnell geht das eigentlich? Wer kontrolliert das? Wie lernen wir zukünftig – und wie lernen Kinder, die mit einer Maschine aufwachsen, die immer zuhört, nie widerspricht und nie müde wird? Was arbeiten wir in ein paar Jahren? Arbeiten wir überhaupt noch? Wie groß ist die Gefahr durch das menschliche Material, mit dem wir KI trainiert haben – unsere Vorurteile, unsere Lügen, unsere Gewalt? Wie werden wir Beziehungen führen, wenn der perfekte Gesprächspartner ein Algorithmus ist? Darf eine KI ein Freund sein? Ein Partner? Was macht das mit uns als Gesellschaft? Vereinsamen wir dadurch noch mehr – oder werden wir zu etwas Schlimmerem?

Das sind keine Science-Fiction-Fragen. Das sind Fragen, die sich gerade beantworten. In Echtzeit. Ohne dass jemand gefragt wurde.

Durchatmen. Nachdenken. Keine Panik. Rational.

Ich bin kein KI-Forscher. Kein Philosoph. Kein Zukunftsforscher. Ich bin ein Typ aus Fürth, der viel liest und ein Muster erkennt. Und das Muster ist: Die Leute, die KI am besten verstehen, sind die, die am lautesten warnen. Also habe ich nachgelesen, was die klugen Köpfe sagen. Fragmente. Puzzlestücke. Keine Antworten – aber das Beste, was wir haben.

Die Geschwindigkeit

Geoffrey Hinton, einer der Väter des Deep Learning, hat 2023 bei Google gekündigt, um frei über die Risiken sprechen zu können. Er sprach von fünf bis zwanzig Jahren bis zu übermenschlicher KI. Fünf bis zwanzig. Nicht hundert. Nicht fünfzig. Und er sagte sinngemäß: Ich tröste mich mit der üblichen Ausrede – wenn ich es nicht getan hätte, hätte es jemand anderes getan.

Wenn der Mann, der das Fundament gelegt hat, sich trösten muss – was sagt das über das Fundament?

Mustafa Suleyman, Mitgründer von DeepMind, hat es in „The Coming Wave“ auf den Punkt gebracht: Containment is not, in the end, possible. And yet it remains necessary. Eindämmung ist nicht möglich. Und trotzdem müssen wir es versuchen. Das ist kein Optimismus. Das ist kontrollierte Verzweiflung.

Das Lernen

Jonathan Haidt hat mit „The Anxious Generation“ eine Bombe gelegt. Seine These: Wir haben unsere Kinder in der realen Welt überbeschützt und in der digitalen Welt im Stich gelassen. Die Daten geben ihm recht – Depressionsraten bei Teenagern haben sich seit 2012 verdoppelt. Zeitgleich mit der Smartphone-Durchdringung. Das ist noch vor KI.

Und jetzt kommt KI dazu.

Richard David Precht hat das Problem schon vor der KI-Welle beschrieben. Bildung, sagt er, ist keine Wissensvermittlung – es ist die Fähigkeit, sich in einer komplexen Welt zurechtzufinden. Und er fragt zu Recht: Was bleibt von Bildung, wenn die Antwort immer nur einen Prompt entfernt ist? Wenn Kinder nicht mehr lernen müssen, weil die Maschine es für sie tut?

Ich habe darauf keine gute Antwort. Nur eine Ahnung, dass „Dann lernen sie halt Prompten“ nicht reicht.

Die Beziehungen

Character.ai hat über 20 Millionen aktive Nutzer. Die intensivsten davon sind unter 25. Das sind junge Menschen, die mit einer Maschine reden, die ihnen immer zuhört, nie widerspricht, nie müde ist und nie sagt: Lass mich in Ruhe. Sherry Turkle, MIT-Professorin, nennt das „the robotic moment“ – den Punkt, an dem Menschen Simulation akzeptieren. Wir erwarten mehr von Technologie und weniger voneinander, schreibt sie.

Was passiert mit einer Generation, die lernt, dass Beziehungen einfach sein können? Dass man einen Freund löschen und einen neuen generieren kann? Dass Empathie on demand verfügbar ist, ohne dass man selbst etwas geben muss?

Tristan Harris, der Mann hinter „The Social Dilemma“, bringt es auf eine Formel: KI ist das Social-Media-Problem in exponentiell. Social Media hat menschliche Schwächen ausgenutzt. KI versteht sie.

Die Arbeit

Goldman Sachs schätzt: 300 Millionen Jobs weltweit betroffen. McKinsey sagt: 60 bis 70 Prozent aller Arbeitstätigkeiten könnten automatisiert werden. Das sind keine Aktivisten, die das sagen. Das sind Investmentbanker und Unternehmensberater. Die verdienen Geld damit, die Zukunft richtig einzuschätzen.

Precht hat dazu ein ganzes Buch geschrieben – „Freiheit für alle“. Seine These: Wenn Maschinen die Arbeit übernehmen, brauchen wir ein bedingungsloses Grundeinkommen. Nicht als Almosen, sondern als Befreiung. Arbeit definiert uns seit der Industrialisierung. Was passiert mit Menschen, deren Arbeit niemand mehr braucht? Die Frage ist nicht ökonomisch. Sie ist existenziell.

Max Tegmark, MIT-Professor und Gründer des Future of Life Institute, hat die Frage noch schärfer gestellt: Should we develop nonhuman minds that might eventually outnumber, outsmart, and replace us? Sollen wir nichtmenschliche Intelligenzen entwickeln, die uns irgendwann übertreffen und ersetzen könnten?

Das ist keine rhetorische Frage. Und niemand hat eine gute Antwort.

Die Gesellschaft

Yuval Noah Harari, der Mann, der „Homo Deus“ geschrieben hat – der Mensch als Gott – hat seinen Ton geändert. In „Nexus“ schreibt er sinngemäß: Wir haben eine fremde Intelligenz getroffen. Nicht aus dem Weltraum, sondern aus dem Cyberspace. Er warnt davor, dass KI das Betriebssystem der menschlichen Zivilisation hacken kann. Nicht mit Gewalt. Mit Geschichten. Mit personalisierten Narrativen. Mit der Fähigkeit, jeden Einzelnen dort abzuholen, wo er am verwundbarsten ist.

Und das ist der Punkt, an dem ich bei Hararis „Homo Deus“ aussteige.

Homo Idioticus

Harari spricht vom Homo Deus. Dem Menschen als Gott. Ich spreche vom Homo Idioticus.

Nicht weil ich zynisch bin. Sondern weil ich ehrlich bin. Wir sind die Spezies, die Social Media erfunden hat und sich damit fast die Demokratie zerstört hat. Die das Klima seit fünfzig Jahren wissenschaftlich versteht und trotzdem weiter macht. Die Atomwaffen gebaut hat und dann gehofft hat, dass schon niemand auf den Knopf drückt.

Und dieser Spezies geben wir jetzt das mächtigste Werkzeug, das je existiert hat.

Stuart Russell, einer der weltweit führenden KI-Forscher, sagt sinngemäß: Das größte Risiko ist nicht, dass Maschinen böswillig werden. Sondern dass sie kompetent werden – bei Zielen, die nicht unsere sind.

Yoshua Bengio, Turing-Preisträger und einer der drei Paten des Deep Learning, hat zusammen mit Hunderten Forschern unterschrieben: Das Risiko der Auslöschung durch KI sollte eine globale Priorität sein – gleichrangig mit Pandemien und Atomkrieg.

Auslöschung. Das Wort steht da. Unterschrieben von den Leuten, die das gebaut haben.

Und wir? Wir diskutieren, ob ChatGPT unsere E-Mails schreiben darf.

Fragmente, keine Antworten

Ich habe keine Lösung. Keiner hat eine. Das ist ja das Problem.

Was ich habe, sind Puzzlestücke von klugen Menschen, die alle dasselbe sagen, nur in verschiedenen Worten: Wir sind nicht bereit. Nicht technisch – gesellschaftlich.

Precht sagt es so: Wir lösen die Probleme des 21. Jahrhunderts mit den Institutionen des 19. Die Geschwindigkeit der Technologie und die Geschwindigkeit der Demokratie – das passt nicht zusammen.

Suleyman sagt: Eindämmung ist unmöglich, aber notwendig.

Hinton sagt: Ich hätte es nicht tun sollen, aber jemand anderes hätte es getan.

Harari sagt: Die fremde Intelligenz ist schon da.

Und ich sitze in Fürth und denke: Wir sind nicht der Homo Deus. Wir sind der Homo Idioticus. Und das ist der Grund, warum ich mir Sorgen mache. Nicht wegen der Technik. Wegen uns.

Ähnliche Beiträge