Dokumentieren mit Werten

Text: Bärbel Bohr Annette Verhein-Jarren

Mit künstlicher Intelligenz steigt die Effizienz in der Technischen Redaktion. Doch wer trägt die Verantwortung für das Ergebnis? Der internationale Standard ISO/IEC/IEEE 24748-7000:2022 zeigt, wie ethische Werte systematisch in Anforderungen übersetzt werden können.

Inhaltsübersicht

Lesedauer: 12:09 Minuten

Die Erstellung Technischer Dokumentation soll vor allem effizienter werden, die Ergebnisse zudem konsistenter und damit von höherer Qualität – Erwartungen dieser Art prägen die Diskussionen über den Einsatz künstlicher Intelligenz in der Technischen Redaktion. Gute Aussichten, wenn sich durch ein KI-unterstütztes Redaktionssystem zum Beispiel die Schreibregeln des Redaktionsleitfadens unabhängig von der Tagesform der schreibenden Personen überprüfen und damit die Konsistenz der Dokumentation verbessern lassen. Natürlich hat der Einsatz von KI auch Folgen: In welchem Verhältnis stehen Aufwand und Ertrag zueinander? Wie lässt sich beim Delegieren des Schreibens an ein System die Verantwortung für das Endprodukt sicherstellen? Entlastet die KI die Technische Redaktion im Arbeitsalltag oder wird die eigene Arbeit dadurch eher langweilig und letztlich sogar überflüssig? Effizienz und Qualität, Delegation und Verantwortung, Entlastung und Langeweile oder gar Arbeitslosigkeit – wir stecken mitten in der Diskussion um Werte, die mit der Einführung einer neuen Technologie verbunden sind. Der Einsatz von KI hat der Diskussion um Werte in der Produkt-/Systementwicklung einen neuen Schub gegeben. Aber wie und mit welchem Ziel kann diese Diskussion geführt werden? Der internationale Verband IEEE setzt sich seit 2016 mit dieser Frage auseinander und bezieht sich dabei auf den Prozess der Softwareentwicklung.

Der Modellprozess nach IEEE

Aus der Diskussion um Werte ist ein Modellprozess entstanden, der 2021 von IEEE verabschiedet und 2022 von ISO und IEC als ISO/IEC/IEEE 24748-7000:2022(en) übernommen wurde. [1] Der Standard ist als Ergänzung zu rechtlichen Vorgaben und Normen zu sehen.

Mit der Norm soll das Rad nicht neu erfunden werden. Rechtliche Vorgaben allein reichen jedoch nicht aus. Es braucht eine fortlaufende ethische Reflexion und gezielte Steuerung des KI-Einsatzes. So können beispielsweise ethische Überlegungen dabei helfen, in urheberrechtlichen Grauzonen die richtige, wertebasierte Entscheidung zu treffen. Wenn eine Technische Redaktion etwa KI nutzt, um Texte zu bearbeiten, dann generiert das Tool möglicherweise Formulierungen, die stark an bereits existierende Texte erinnern. Auch ohne direkte Kopie entstehen Fragen nach geistigem Eigentum und der Grenze zwischen zulässiger Übernahme und Rechtsverletzung. Nicht zuletzt hat gerade die rasante Entwicklung benutzerfreundlicher KI-Systeme bis in die Krankenhäuser und Schulen hinein dazu beigetragen, dass ethische Implikatoren stärker in den Fokus rücken. Und diese Aufmerksamkeit muss sich auch auf die Technische Dokumentation richten, die ein integraler Bestandteil der entwickelten Produkte ist.

Von Werten zu Anforderungen

Bereits seit Jahren wird intensiv daran gearbeitet, ethische Werte zu ermitteln. Jeder Fachverband hat seinen „Code of Conduct“, jedes Unternehmen hat seine Kernwerte dokumentiert. Die Übersetzung dieser Werte in konkrete Systemanforderungen ist jedoch nach wie vor äußerst schwierig. Werte haben einen starken Appellcharakter. Doch wie lassen sie sich methodisch in technische oder organisatorische Anforderungen übertragen? Was bedeuten sie etwa bei der Implementierung von KI für die Technische Dokumentation – das ist mit der Existenz einer Werteliste nicht automatisch klar. Der von IEEE entwickelte Modellprozess bietet dafür ein praxisnahes und bewährtes Verfahren.

Im Folgenden stellen wir das Modell vor, erläutern es an einem Beispiel sowie anhand von Workshop-Erfahrungen mit Mitgliedern der tekom. Außerdem geben wir Tipps, wie Interessierte in das Thema einsteigen können.

Fünf Prozessschritte im Überblick

Der Standard ist sehr leistungsfähig und erfordert eine gründliche konzeptionelle Einführung. Er besteht aus fünf Schritten (Abb. 01), die wir in den nächsten Absätzen genauer erläutern.

1. Concept of operations and context exploration process: In diesem Prozessschritt wird ein konkretes Betriebskonzept (ConOps) entwickelt, das die Eigenschaften des geplanten Systems aus der Sicht der Nutzenden beschreibt. In der Praxis haben Unternehmen dieses Wissen oft bereits in einer ersten Version, wenn sie beginnen, sich mit ethischen Fragestellungen zu beschäftigen. Zugleich entsteht ein erstes Bild vom Nutzungskontext, der relevanten Interessengruppen und ihrer Bedürfnisse, also auch der Dokumentationsanforderungen. Außerdem werden Erkenntnisse über die allgemeine Machbarkeit und die Kontrolle über externe Stakeholder gewonnen.

2. Ethical values elicitation and prioritization process: In diesem Prozessschritt werden die Auswirkungen des Betriebskonzepts auf die Werte aller Stakeholder aus verschiedenen philosophischen Blickwinkeln untersucht, Wertekonflikte ermittelt und gelöst bzw. priorisiert.

3. Ethical requirements definition process: Die ermittelten Wertprioritäten werden dann systematischer und konzeptioneller analysiert und bilden die Grundlage für den Prozess zur Definition ethischer Anforderungen, der Ethical Value Requirements (EVR). Dazu müssen die technische, betriebliche, rechtliche und wirtschaftliche Machbarkeit der Anforderung bewertet werden.

4. Ethical risk-based design process: Die ethischen Anforderungen werden anhand von Risikogesichtspunkten in Systemanforderungen umgewandelt. Es wird untersucht, wie ethische Risiken gemildert oder kontrolliert werden können. Das Ergebnis ist der „Case for Ethics“.

5. Transparency management process: In diesem durchlaufenden Teilprozess werden alle Schritte des Prozesses dokumentiert und alle relevanten Informationen transparent und nachvollziehbar festgehalten.

Prozessschritte des Standards ISO/IEC/IEEE 24748-7000:2022(en).
Abb. 01 Prozessschritte des Standards. [1]

Beispiel „ChatGPT for kids“

Abbildung 02 veranschaulicht die Terminologie bei der Ermittlung der relevanten Werte, deren Clustering und schließlich deren Transformation in Systemanforderungen anhand des simplen Beispiels eines hypothetischen „ChatGPT for kids“. Diese Idee dient als Einstieg [2] in das Betriebskonzept (ConOps). Das Projektteam sammelt zunächst gemeinsam die Werte des zukünftigen Systems. In unserem vereinfachten Beispiel sind dies Werte wie „Freude“, „Spaß“, „Motivation“ und „Unterhaltung“ sowie eine Wertequalität wie „spielerisch“. Letzteres ist zwar kein Wert an sich, stellt aber eine zentrale Eigenschaft oder Qualität dar, die mit den identifizierten Werten verbunden ist.

Ein Wert ist eine Vorstellung, die die Auswahl aus verfügbaren Handlungsmöglichkeiten, Mitteln und Zielen beeinflusst. Im Vergleich dazu stellt ein „core value“ (Kernwert) die übergeordnete Kategorie dar, die ähnliche Werte und deren positive Eigenschaften umfasst. In unserem Beispiel kommt das Team zu dem Schluss, dass „Freude“ ein Kernwert des zukünftigen Systems sein muss. Dies liegt daran, dass sowohl die Anbieter des künftigen Systems als auch Eltern und Lehrkräfte möchten, dass Kinder mit Freude lernen. Darüber hinaus lernen die Kinder selbst auch lieber, wenn es ihnen Freude macht. Somit ist „Freude“ der Oberbegriff, der die semantische Gruppierung ähnlicher Werte erleichtert.

Anhand dieses Beispiels lässt sich kindgerechte Kommunikation als „ethical value requirement“ (EVR) identifizieren, das den Kernwert „Freude“ und dessen Haupteigenschaft „spielerisch“ fördert. Um diesen Kernwert zu implementieren, muss eine kindgerechte mündliche Spracherkennungs-Software eingesetzt werden, da junge Nutzende möglicherweise noch nicht über ausreichende Lese- und Schreibfähigkeiten verfügen und deshalb mündlich mit dem System interagieren. Mit diesem letzten Schritt wird die ethische Werteanforderung einer kindgerechten Kommunikation in eine Systemanforderung überführt, die so genannte „Value disposition“.

Beispielhafter Prozessablauf anhand eines hypothetischen ChatGPT for Kids.
Abb. 02 Beispiel für einen Prozessablauf (eigene Darstellen, angelehnt an [4]).

Drei Leitfragen für Werte

Doch wie kommt das Projektteam zu all diesen Werten? Dafür nutzt der Standard drei Leitfragen, die jeweils auf einer bekannten philosophischen Denkschule beruhen (Abb. 03).

Beispiele für Leitfragen.
Abb. 03 Leitfragen zur Ermittlung der Werte. [3]

Nutzenethik: Welche Werte werden durch die Anwendung positiv oder negativ beeinflusst, wenn dieses System in großem Maßstab zur Nutzenmaximierung eingesetzt würde? Im Zusammenhang mit der Systemgestaltung bedeutet angewandter Utilitarismus, dass eine profitorientierte Organisation ihre Aktivitäten nicht nur unter finanziellen Aspekten betrachtet. Sie sollte stets auch die Schäden für Gesellschaft und Umwelt berücksichtigen, die langfristig die Aktivitäten der Organisation gefährden könnten. Kehren wir zu unserem Beispiel „ChatGPT for kids“ zurück: Das Team könnte große finanzielle Vorteile erzielen, da sich die Anwendung bei Eltern mit hohem Einkommen gut verkauft. Gleichzeitig könnte gesellschaftlicher Schaden entstehen, da eine solche App das bestehende Schulsystem weiter aushöhlen und zu wachsender Ungleichheit führen könnte.

Tugendethik: Welche langfristigen Auswirkungen hat das betreffende System auf die Persönlichkeit der betroffenen Akteure, wenn es in großem Maßstab eingesetzt wird? Die Tugendethik ist eine philosophische Schule, die sich mit der Frage beschäftigt, wie ein Mensch moralisch wachsen kann: Wie kann man ein besserer Mensch werden? Apps zur Selbstmotivation und persönlichen Weiterentwicklung sind beliebte Beispiele, die Tugenden fördern oder dabei helfen, schlechte Gewohnheiten abzulegen. Unser „ChatGPT for kids“ könnte beispielsweise die Selbstmotivation eines Kindes fördern, eine Eigenschaft, die als positiver Aspekt des menschlichen Verhaltens angesehen wird. Auf der anderen Seite könnte man erwarten, dass diese Art des Lernens Bequemlichkeit fördert. Ein solches System kann auch zu negativen Lebensgewohnheiten führen, die auf der täglichen Bildschirmzeit basieren, wie zum Beispiel mangelnde Selbstfürsorge oder schlechte Essgewohnheiten.

Pflichtenethik: Welche persönlichen Maximen oder Wertprioritäten sieht das Projektteam durch das zukünftige System beeinflusst? Welche universellen Regeln im Sinne Emanuel Kants lassen sich identifizieren, die jeder befolgen sollte? Aus positiver Sicht ermöglicht „ChatGPT for kids“ jedem Kind, sein Lerntempo selbst zu bestimmen. Diese Autonomie ist ein Wert, der in unserer Gesellschaft als erstrebenswert bewertet wird. Allerdings können Überlegungen zur Pflichtenethik Fragen aufwerfen, inwieweit ein automatisiertes System ohne eigene moralische Handlungsfähigkeit überhaupt Verantwortung für den Lernprozess eines Kindes tragen sollte.

Die Fragen basieren auf den genannten ethischen Theorien. Sie können jedoch jederzeit in anderen kulturellen Kontexten jenseits des westlichen Philosophie-Kanons durch zusätzliche moralische oder spirituelle Perspektiven ergänzt werden, die für die jeweilige Region oder Kultur, in der das betreffende System eingesetzt wird, relevant sind. Untersuchungen der Technischen Universität Wien zeigen, dass sich der Modellprozess nicht nur aus Risikogesichtspunkten lohnt, sondern zu einer Fülle innovativer Produktideen führt. Eine Fallstudie mit dem Start-up Foodora hat gezeigt, dass dank der wertebasierten Herangehensweise mögliche negative Auswirkungen der App-Nutzung frühzeitig erkannt wurden. Gleichzeitig wurden zahlreiche positive Auswirkungen identifiziert, die in einer konventionellen Anforderungsanalyse nicht gefunden wurden. [4] Die Arbeit mit dem Standard sichert also die eigene Geschäftsidee ab.

Erfahrungen aus Workshops

Wir haben einzelne der dargestellten Prozessschritte Szenario-orientiert in zwei Workshops mit Technischen Redakteurinnen und Redakteuren erprobt.

„Context exploration process“
Im ersten Workshop sind wir von dem Szenario ausgegangen, dass ein Entwicklungsteam, einschließlich Technischer Redaktion, ein Framework für virtuelle Gebrauchsanleitungen entwickeln soll. Das Framework soll verschiedene Nutzungsszenarien wie Installation, Betrieb, Wartung und Training abdecken. Ziel ist es, dass Industriemaschinen mit Hilfe einer AR-Brille bedient werden können.

In diesem Workshop lag der Schwerpunkt der Arbeit auf dem Prozessschritt „context exploration process“ (Abb. 01) und der Sammlung von ersten Ideen, welche Werte sich daraus ableiten lassen („ethical value elicitation“, Abb. 01). Ziel war es, die Verbindung von Kontextelementen mit möglichen Werten zu erkennen. In der Kontextrecherche wurden dazu zunächst die Funktionalitäten und die Stakeholder erhoben, außerdem die Bedürfnisse der Nutzerinnen und Nutzer des Frameworks. Aus den dabei gesammelten Aspekten wurden dann anhand der drei oben dargestellten Leitfragen (Abb. 03) damit verbundene Werte gesammelt. Dazu zählen Selbstständigkeit, Fremdbestimmung, Neugier, Kontrolle oder Vertrauen, Nachhaltigkeit oder Teilhabe.

Zu den Erkenntnissen aus diesem ersten Workshop gehörte, dass die Kontextrecherche ungewohnte Perspektiven auf das Framework lieferte, insbesondere auch durch die Analyse der Bedürfnisse von Stakeholdern. Der gedankliche Schritt von der Erhebung des Kontextes hin zu Werten, die mit dem Framework verbunden sind, war ungewohnt. Zwar handeln wir vielfach auf der Basis von Werten, machen uns diese aber in den seltensten Fällen bewusst. Auch denken wir eher nicht darüber nach, wie ein geplantes Produkt Werte stützt oder behindert – und dass mit diesem Wissen das Produkt zu seinem Vorteil ausgestaltet werden kann.

„Ethical values elicitation and prioritization process“
Im folgenden zweiten Workshop lag der Schwerpunkt der Arbeit auf dem Prozessschritt, die Werte zu sammeln und zu priorisieren (abb. 01). Die Teilnehmenden hatten die Aufgabe, eine Werteliste anhand der drei Leitfragen (abb. 03) zu erarbeiten. Als Grundlage erhielten sie eine ausführliche Kontextrecherche und für jede der oben beschriebenen drei Leitfragen beispielhaft zwei Werte, die die unterschiedlichen philosophischen Blickwinkel der Werte illustrieren sollten. Für den Utilitarismus waren dies die Werte Arbeitszufriedenheit und Konsistenz, für die Tugendethik Kreativität und Langeweile und für die Pflichtenethik die Werte Innovation und Verantwortung.

Ziel war es, auf der Basis der Werteliste die ethischen Implikationen einzuschätzen und damit in den Blick nehmen zu können, wie das geplante Produkt erwünschte Werte unterstützen kann und nicht erwünschte Werte möglichst vermeidet. Die von den Teilnehmern und Teilnehmerinnen erarbeitete Liste der Werte machte sehr gut sichtbar, wie zahlreich und vielfältig die verbundenen Werte sind. Sie machte ebenso deutlich, wie geübt wir darin sind, im wirtschaftlichen Kontext utilitaristisch zu denken. Dadurch werden weitergehende wertebasierte Überlegungen vernachlässigt, die langfristig das Produkt besser machen könnten.

„Ethical requirements definition process“
Ein nächster Prozessschritt, der im Workshop nur angerissen werden konnte, würde darin bestehen, die Kernwerte zu identifizieren. Exemplarisch wird hier der Kernwert „Konsistenz“ betrachtet. Konsistenz lässt sich durch verschiedene Wertequalitäten konkretisieren: Inhalte sollen aktuell, widerspruchsfrei, konform, vollständig, einheitlich und in sich übereinstimmend sein. Anschließend würden mögliche Wertekonflikte analysiert und eine Priorisierung vorgenommen werden – beispielsweise steht Konsistenz im Konflikt mit Schnelligkeit, Workflow-Effizienz oder Kreativität. Auf dieser Basis können dann ethische Wertanforderungen (EVR) formuliert werden. Für den Beispielwert Konsistenz bedeutet das etwa, dass die Textgenerierung bestimmten Regeln folgt, die zuvor definiert wurden. Diese leiten sich aus den Unternehmensrichtlinien und bestehenden Dokumentationsstandards ab. Daraus ergeben sich spezifische Systemanforderungen. So kann etwa der Einsatz von APIs zur Echtzeitabfrage unternehmenseigener Terminologiedatenbanken sinnvoll sein. Ebenso ist es möglich, große Sprachmodelle (LLMs) gezielt mit redaktionellen Vorlagen des Unternehmens zu trainieren, um konsistente Ergebnisse durch die Nutzung von KI sicherzustellen.

Fallstricke im Prozess

Im Workshop konnten wir in der Diskussion um diesen Prozessschritt feststellen, dass dieser Ansatz ein Umdenken erfordert. Dies liegt oft daran, dass wir unsere Werte in der Kindheit oder aus Konformitätsdruck als Erwachsene unbewusst übernommen haben. Das heißt, die Werte sind uns oft nicht mehr bewusst. Deshalb sind wir wenig darin geübt, Werte mit bestimmten Verhaltensweisen zu assoziieren. Der hektische Berufsalltag lässt oft nicht zu, über unsere Werte zu reflektieren und sie zum langfristigen Erfolgsfaktor für Produkt und Unternehmen zu machen.

Nutzen des Ansatzes

Wertebasiertes Arbeiten erfordert Übung. Erfahrungen mit dem Standard aus Pilotanwendungen und ersten Praxiseinsätzen zeigen, dass die Wertschöpfung dank wertebasiertem Vorgehen erhöht und negative Folgen aus der Nutzung eines Systems vermieden werden können. [2] Jede ethische Perspektive trägt auf einzigartige Weise zur Identifizierung unterschiedlicher Werte bei: Die Nutzenethik inspiriert instrumentelle Werte wie Fokus auf wirtschaftliche und technische Nachhaltigkeit, aber auch auf intrinsische Werte wie Wohlbefinden. Die Tugendethik ergänzt diese Ideen um unterschiedliche Tugenden für jeden Kontext, die zur nachhaltigen Entwicklung des Einzelnen beitragen, wie zum Beispiel Selbstwirksamkeit. Die Pflichtenethik führt zum höchsten Anteil an Werten mit sozialer Relevanz. Dazu zählt die Verantwortung für die Gesellschaft. [3]

So gelingt die Umsetzung

Obwohl nicht ohne Herausforderungen, stellt der Prozess einen innovativen Ansatz dar, die Werte der Stakeholder systematisch in Systemanforderungen zu übertragen. Letztlich fördert der ganzheitliche Ansatz verantwortungsbewusste Innovation. Konsequent eingeführt, bedeutet er nicht automatisch zusätzlichen Aufwand. Vielmehr kann der Ansatz helfen, das Betriebskonzept für das Zielsystem zu verifizieren. Für ein Unternehmen wird zum einen viel klarer, welche Risiken in einer neuen Technologieinvestition stecken. Für das Produktmanagement erschließt sich durch die ermittelten positiven Werte, wie die „Value proposition“ ihrer Geschäftsidee zu verfeinern wäre.

Die Einführung in das Arbeiten mit dem Standard erfolgt meist mit Hilfe externer Experten und Expertinnen. [5] Ziel bleibt es, dass die Verantwortung für die Ermittlung und Entscheidung hinsichtlich ethischer Fragestellungen an das Projektteam übergeben wird. Wir schätzen, dass Personen mit einem Background aus der Technischen Redaktion sehr gut geeignet sind, an diesen Prozessen aktiv mitzuwirken. Schließlich sind sie es gewohnt, UX-orientiert zu arbeiten, zu den verschiedenen Beteiligten einen Zugang zu haben und mit Begriffen umgehen zu können.

Wer sich für den Einsatz des Standards im eigenen Betrieb interessiert, kann sich folgende Schritte überlegen:

  • Was ist Ihnen wichtig? Nehmen Sie sich Zeit, um über Ihre eigenen Werte und die Werte der Gesellschaft, in der Sie leben möchten, nachzu­denken. Überlegen Sie, wie Sie sicherstellen können, dass diese Werte Ihr Handeln bei der Arbeit leiten.
  • Ermitteln Sie das betriebsinterne Potenzial: Erkunden Sie die Möglichkeiten des Standards an Ihrem Arbeitsplatz und kommunizieren Sie dessen Inhalte an Ihre Team­mitglieder und die Geschäftsleitung. Finden Sie gemeinsam heraus, wie der Standard dazu beitragen kann, ethische Fragen zu berücksichtigen und Vertrauen in Ihre technologischen Lösungen zu stärken.
  • Engagieren Sie sich in der Community: Suchen Sie sich Gleichgesinnte und engagieren Sie sich zu diesem Thema beispielsweise auf Tagungen oder in einem Verband. Mit anderen Personen können Sie den Standard vorantreiben und von Erfahrungen lernen.

Langfristig können wertorientierte Praktiken auch in der Technischen Dokumentation dazu beitragen, Vertrauen in technologische Lösungen zu sichern und eine ethisch verantwortungsvolle Arbeitsumgebung zu fördern.  

Links und Literatur zum Artikel

[1] ISO/IEC/IEEE 24748-7000:2022: www.iso.org/standard/84893.html [letzter Zugriff 29. Juli 2025].
[2] Bohr, B. (2025): How to Turn Ethical Values Into System Requirements: Lessons Learned from Adopting a New IEEE Standard in the Business World“, IEEE Software, Bd. 42, Nr. 1, S. 9–16, Jan. 2025, doi: 10.1109/MS.2024.3472928.
[3] Bednar, K./Spiekermann, S. (2025): Eliciting Values for Technology Design with Moral Philosophy: An Empirical Exploration of Effects and Shortcomings“, Science, Technology, & Human Values, S. 016224392211225, Sep. 2022, doi: 10.1177/01622439221122595.
[4] Spiekermann, S. (2023): Value-based engineering: a guide to building ethical technology for humanity. De Gruyter Graduate. Berlin Boston: De Gruyter.
[5] Institut für Wirtschaftsinformatik & Gesellschaft an der WU Wirtschaftsuniversität Wien: Value-based Engineering with ISO/IEC/IEEE 24748-7000, WU Wirtschaftsuniversität Wien. https://www.wu.ac.at/ec/projects/ieee-p7000-standard [letzter Zugriff 29. Juli 2025].

Ein Mann mit Schutzhelm und Laptop steht an einem Staudamm.