Mehr Output - weniger Mensch?

Text: Mathias Maul

Generative KI kann Teams bei Routineaufgaben entlasten. Aber was geschieht mit der gewonnenen Zeit?

Inhaltsübersicht

Lesedauer: 06:40 Minuten

Anfang 2025 sorgte ein Arbeitspapier der Harvard Business School für Aufregung in Beraterkreisen: In einem Experiment mit über 700 Konzernmitarbeitern konnten Forscher Produktivitätsgewinne messen, wenn generative KI-Tools als „Teammitglied“ eingesetzt wurden. Die Datenlage ließ sogar Rückschlüsse auf eine gesteigerte Motivation, einen gehobeneren emotionalen Zustand und mehr soziale Verbundenheit zu.

Wer sich schon einmal mit einem Chatbot durch den Arbeitstag hat begleiten lassen, erlebte vielleicht, wie angenehm das sein kann: Man baut sich einen robotischen Kollegen, der immer zuhört (aber nur dann, wenn man es selbst will) und nie widerspricht (außer man bittet darum). Er weiß zwar lange nicht alles, ist dafür aber im unreflektiertesten Unwissen höchst motiviert, weiterzuhelfen.

Die aktuellen Technologien können kaum mehr, als kunstvoll halluzinieren. Doch das trifft perfekt auf unsere menschliche Fähigkeit, in den zusammengewürfelten Texten von Gemini, Claude oder Mistral genauso einen Sinn zu lesen, wie wir Teetassen oder Dinosaurier in vorbeiziehenden Wolken erkennen. Für einige Aufgaben ist das gut genug, für andere erstaunlich mächtig. Sicher, man braucht Übung im Unterscheiden von sinnvollen Ergebnissen und „work slop“, dem inzwischen etablierten Wort für das, was Menschen im Job „heiße Luft“ nennen. Und ein Gefühl dafür, wann man den Bot besser zur Seite stellen sollte und selbst denken, anstatt das Denken nur simulieren zu lassen. Wer beides hat, kann Routineaufgaben automatisieren, Inspiration gewinnen, dabei sehr viel Freude haben und sich in der dadurch frei werdenden Zeit zufrieden zurücklehnen, sich noch einen Kaffee einschenken …

Gewonnene Zeit, verlorene Pausen

… so zumindest der Wunschtraum. Tatsächlich, und auch hier ist die Studienlage recht deutlich, geschieht häufig etwas anderes: Die frei werdende Zeit wird verdichtet, indem sie mit intensiveren, kognitiv anspruchsvolleren Aufgaben gefüllt wird. Die Routineaufgaben hat der Bot schon erledigt. So bleibt für den Menschen das, was anstrengende Denkarbeit erfordert. Kognitive Regeneration geschieht in Phasen ohne Arbeitsinhalte oder (wenn auch schwächer) durch Wechseln zwischen komplexen und einfachen Aufgaben. Wenn KI-Assistenten E-Mails vorsortieren, Protokolle schreiben und Informationen recherchieren, bleibt weniger Zeit zur Regeneration.

Es entsteht genau das, was KI-Utopisten vermeiden wollen: Stress. Forscher reden von „Technostress“, also Stress, der primär durch Automatisierung und Technisierung entsteht oder dadurch verstärkt wird. Er kann zu Anspannung und leichter Reizbarkeit führen, zu verstärkter Prokrastination, verringerter Kreativität und schließlich zu Angstzuständen und Burn-out.

Dieses Konzept ist nicht neu, denn der kapitalistische Kniesehnenreflex ist derselbe wie einst in der Industrialisierung: Der Webstuhl kann selbsttätig weben? Dann macht ein Arbeiter jetzt die Arbeit von zehn! Nur der Output zählt, und Output erzeugen kann generative KI, wie der Name schon sagt, besonders gut. Aber mehr Output bedeutet weder bessere Arbeit noch zufriedenere Maschinisten.

Und wer weiß, ob die Arbeit mit KI-Hilfe unter dem Strich besser ist als die ohne? Ein Webstuhl webt objektiv richtig oder falsch. Bots wissen nichts über die Korrektheit ihrer Antworten und können mangels Arbeitsvertrags bei Fehlern nicht abgemahnt werden. Das erzeugt neue Stressoren: Die Bediener sind nicht mehr nur verantwortlich für die eigenen Fehler, sondern auch für die ihrer KI-Agenten, denen sie zudem auf die Finger schauen müssen. In Branchen wie der Technischen Kommunikation, bei der jeder Prozentpunkt weniger Qualität echte Risiken für Leib, Leben und Geldbeutel birgt, relativiert das mögliche Effizienzgewinne.

Der Schlüssel „Selbstwirksamkeit“

Bei all diesem Ernst lässt sich nicht leugnen, und auch das zeigte das eingangs erwähnte Experiment, dass es unerhört viel Leichtigkeit und Inspiration bringen kann, mit digitalen Kollegen zu arbeiten. Anders als die meisten Mitmenschen kann man jederzeit, so oft und so lange man möchte, reden, umformulieren und aufs Wildeste herumprobieren.

Das tun natürlich diejenigen mit hoher Ausgangsmotivation umso lieber. Schließlich ist nicht jeder ein geborener Tüftler oder hat Lust oder Zeit, bei der Arbeit zu experimentieren. Der Motivation zuträglich ist natürlich auch, keine Angst zu haben, die Maschine könnte einen ersetzen, sobald man mal den Dreh raus hat.

Gerade letzten Herbst schaute ich einem Mitarbeiter eines Kunden über die Schulter. Er gab „google“ in die Adresszeile des Browsers ein, klickte auf das erste Suchergebnis, gelangte auf die Google-Website und tippte dann den eigentlichen Suchbegriff ein. Dieser war dann noch so allgemein formuliert, dass ihn die Ergebnisse nicht weiterbrachten – lange kein Einzelfall. Oder vielleicht kennen Sie auch Menschen, die Papierstaus im Drucker nicht beheben können, obwohl das Display sehr klar anzeigt, was erstens, zweitens und drittens zu tun ist? Wie schwer ist es manchmal doch, einem anderen denkenden Menschen genau genug zu erklären, was man möchte: Umso schwieriger ist das mit einem Chatbot, der nicht denken kann.

Die Einfachheit der Eingabezeile täuscht darüber hinweg, wie komplex menschliche Sprache als Kommunikationsmedium ist – unter Menschen sowieso und zwischen Menschen und Maschinen umso mehr. Nicht ohne Grund gibt es noch immer „Prompting-Anleitungen“, die – wenn auch auf eine sehr krude Art – das versuchen, was eine der Kernaufgaben meiner Branche ist: Menschen nahezubringen, wie sie sich reflektieren und dann so ausdrücken, dass Kommunikation funktioniert.

Zusammengefasst heißt das Selbstwirksamkeit, und das ist der größte Hebel, mit dem Veränderungen – sei es individuell, in Teams oder auf Organisationsebene – gelingen können. Eine Faustregel aus der Beratung: Je größer (oder „disruptiver“) die Veränderung, desto wichtiger ist es, auf die Selbstwirksamkeit der Mitarbeiter zu fokussieren.

Verständnis im Paket

1983 veröffentlichte Lisanne Bainbridge einen kurzen Artikel über die Ironien der Automatisierung. Je mehr automatisiert wird, so schrieb sie, umso wichtiger wird die menschliche Urteilskraft. Und Automatisierung löscht zuweilen genau diejenige menschliche Expertise aus, die man braucht, wenn die Automatisierung versagt. Wir automatisieren, um Menschen zu entlasten, brauchen aber genau die menschliche Expertise, die durch Automatisierung verkümmern kann.

Zudem zeigten Mazeika et al. (2025) eindrücklich, dass genau diese Automatisierung mit aktuellen LLM-basierten KI-Systemen kaum möglich ist. Sie können komplexe Aufgaben nur zu maximal zweieinhalb Prozent automatisch abschließen. Wie andere Werkzeuge auch wirkt KI nur in der Hand des geübten Nutzers. Ohne großen wissenschaftlichen Durchbruch gibt es aktuell kaum Grund anzunehmen, dass sich dies bald – oder überhaupt – ändern wird. Die sagenumwobene allgemeine künstliche Intelligenz bleibt wie schon seit Dekaden immer zehn Jahre entfernt.

Für Organisationen ist es nicht schwer, die Voraussetzungen zu schaffen, damit die Belegschaft diese neuen Werkzeuge mit Lust, Motivation und ohne Angst erkundet und nutzt: Psychologische Sicherheit am Arbeitsplatz ist seit Langem erforscht und umsetzbar. Ein kleiner Anfang kann schon sein, die Belegschaft von Beginn an einzubeziehen, wenn KI-Tools eingeführt werden sollen. Vorbildliche Unternehmen geben Teams großes Mitspracherecht, wenn neue Kollegen dazukommen sollen. Genauso sinnvoll ist es, Mitarbeiter am Entscheidungsprozess für neue „KI-Kollegen“ zu beteiligen.

Im nächsten Schritt sollte die Fähigkeit zum kritischen Denken umso mehr betont und gefördert werden, je intensiver disruptive Werkzeuge genutzt werden. Dazu zählen etwa Schulungen, die über die Bedienung hinausgehen, so viel Verständnis schaffen und Bedenken ansprechen und letztlich auflösen helfen, dass die Selbstwirksamkeit steigt.

In einer idealen Welt würde als Drittes ein Paradigmenwechsel folgen: Neue Design­prinzipien für frei werdende Arbeitszeit und das Schützen kognitiver Pufferzeiten, um die Denk- und Leistungsfähigkeit der denkenden Mitarbeiter zu erhalten. Auch wenn das bedeutet, auf kurzfristige Belohnungen durch mehr Output zu verzichten. Die gewonnene Zeit darf nicht einfach verdichtet werden, sondern muss bewusst und mit Raum für Regeneration gestaltet werden. Denn die Anforderungen an Dokumentation und Schulungen sind bei KI-Tools deutlich höher als bei bisherigen Werkzeugen.

Augmentation statt Automation

Experimente wie das von Dell’Acqua zeigen, dass KI als Teammitglied funktionieren kann. Es kann Produktivität steigern und sogar Freude bereiten – unter Bedingungen, die in den meisten Organisationen nicht gegeben sind: Die Probanden hatten psychologische Sicherheit, Zeit zum Experimentieren, keine Angst vor Ersetzung und bekamen Unterstützung dabei, die Werkzeuge zu verstehen und kritisch einzusetzen.

In der Realität werden Tools ausgerollt und Mitarbeiter bekommen als Einführung ein einstündiges Webinar. Anschließend wird erwartet, dass die Produktivität steigt. Kurzfristig kann das funktionieren. Jedoch zieht die Qualität der Arbeit selten kongruent mit und noch weniger die Zufriedenheit der Menschen und die Nachhaltigkeit der Prozesse.

Dass aktuelle KI-Tools kein Ersatz für menschliches Denken sind, ist offensichtlich. Sie können ein gutes Werkzeug zur Erweiterung menschlicher Fähigkeiten sein. Das setzt voraus, dass Organisationen mehr in Menschen investieren als in Lizenzen, Selbstwirksamkeit als Erfolgsfaktor ernst nehmen und bereit sind, anstatt auf kurzfristige Output-Gewinne auf Nachhaltigkeit zu setzen und diese zu optimieren.

Das ist aber lange nicht mit einem „Hey Gemini, schreib mir mal ein Schulungskonzept“ getan. Es braucht neben Zeit die Bereitschaft, in Menschen zu investieren anstatt nur in Technologie, und zwar nicht trotz, sondern gerade weil die Technologie uns gerade sehr nahekommt. Außerdem gilt es, die Fähigkeit zu entwickeln, sich zwischendurch die Ohren zuzuhalten, den Hype auszublenden und mit klarem Kopf, belastbaren Studien und in Pilotprojekten zu prüfen, wie KI-Initiativen nettopositiv werden können. In die Nachhaltigkeit, anstatt in kurzfristige Effizienzgewinne zu investieren, trauen sich trotz aller Erfahrungswerte bisher nur wenige. Aber auch Organisationen können sich in Selbstwirksamkeit üben.

Literatur zum Artikel

Dell’Acqua, Fabrizio et al. (2025): The Cybernetic Teammate: A Field Experiment on Generative AI Reshaping Teamwork and Expertise. Harvard Business School, working paper 25-043.
Bainbridge, Lisanne (1983): Ironies of Automation. In: Automatica 19.
Chuang, Ya-Ting et al. (2025): Insights from the Job Demands–Resources Model: AI’s dual impact on employees’ work and life well-being. In: International Journal of Information Management 83.
Kim, Byung-Jik und Lee, Julak (2024): The mental health implications of artificial intelligence adoption: the crucial role of self-efficacy. In: Humanities and Social Sciences Communication 11.
Maul, Mathias (2026): Forest Bathing With My Bot: Using A.I. Hallucinations to Improve Real-World Hybrid Leadership Skills. In: Ritsumeikan University Business Review, Vol. LXIV No.6.
Mazeika, Mantas et al. (2025): Remote Labor Index: Measuring AI Automation of Remote Work. Center for AI Safety & Scale AI, working paper.

Titelbild von Ausgabe 02 2026 der Fachzeitschrift technische kommunikation.