In diesem Artikel stelle ich zunächst zwei Anwendungsszenarien für technische Informationen dar, bevor ich einen möglichen Lösungsansatz für diese Szenarien skizziere. Vor dessen Hintergrund gehe ich der Frage nach, was es bedeutet, Informationen effizient zu erstellen. Außerdem zeige ich auf, dass der Blick nicht nur auf die Inhalte, sondern auch auf die Bereitstellung und die zugrunde liegenden Prozesse gerichtet werden sollte.
Zwei Szenarien
Eine Technikerin bekommt aus einem System für das Customer-Relationship-Management (CRM) ihren Auftrag. Dabei handelt es sich um eine planmäßige Wartung oder eine außerplanmäßige Reparatur. Im Idealfall erhält sie über das CRM-Ticket Angaben zum Kunden, zum Produkt und ihrer Aufgabe sowie – im Fall einer Reparatur – Hinweise auf mögliche Fehlermeldungen. Um ihre Aufgabe bearbeiten zu können, benötigt die Technikerin weitere Informationen. Dazu zählen Anleitungen, Werkzeuge, Ersatzteile und Hilfsmittel, außerdem Troubleshooting-Dokumente.
Ein Vertriebsmitarbeiter berät seine Kunden zu gewünschten oder benötigten Produkten. Er nimmt die Anforderungen der Kunden auf und unterbreitet ihnen Vorschläge für geeignete Produkte. Er hat die Möglichkeit, den Kunden technische Spezifikationen, USPs oder Broschüren zu zeigen, um sie von den Eigenschaften der Produkte überzeugen zu können. Idealerweise hat er Unterlagen der Wettbewerber im Zugriff, welche Produkte mit welchen Spezifikationen diese im Sortiment haben. Preise dürfen natürlich nicht fehlen.
Für beide Zielgruppen gilt, dass sie ihre Informationen in verschiedenen Systemen oder lokal auf ihrem Laptop suchen bzw. finden.
Information auf einen Klick
Aus Unternehmenssicht verlangen die Anwendungsszenarien für Vertrieb und Service (aber auch weitere Unternehmensbereiche) aufgrund der Vielfalt und Heterogenität der verschiedenen Informationen nach einer zentralen Plattform. Diese Plattform muss in der Lage sein, Informationen aus verschiedenen Systemen wie einem Component-Content-Management-System (CCMS), einem Warenwirtschaftssystem (ERP), einem Ersatzteilkatalog (SPC) oder einem CRM, aber auch auf Sharepoint abgelegte Informationen zu integrieren und zu vernetzen. Eine solche Plattform möchte ich als Wissensplattform bzw. Knowledge Hub bezeichnen (Inf. 01).
Für die Vernetzung der Informationen setzt der Knowledge Hub auf Wissensgraphen und ggf. weitere Technologien aus dem Umfeld der künstlichen Intelligenz. Die semantische Technologie Wissensgraph nutzt ihrerseits einschlägige Systeme zur Erstellung und Administration so genannter Wissensmodelle (Taxonomien, Thesauri, Ontologien), auch als Taxonomie-Management-Systeme bekannt. Hinzu kommen Graphdatenbanken für die Verwaltung der instanziierten, konkreten Objekte.
Die Zielgruppen wie unsere Technikerin oder der Vertriebsmitarbeiter erhalten die Informationen über spezielle Anwendungen: eine Sales App hier, ein Service Assistant dort. Aber auch gängige Content- Delivery-Portale (CDP) lassen sich mit den Inhalten des Knowledge Hub versorgen. Oder die vernetzten Informationen bilden die Grundlage für einen Chat. Selbstredend sollen in den verschiedenen Anwendungen nur die Inhalte bereitgestellt werden, die von den jeweiligen Stakeholdern auch tatsächlich benötigt werden.
Für die aufgeführten Systeme wie CCMS, CRM oder CDP gilt, dass der Knowledge Hub idealerweise für einige ausgewählte Exemplare vorkonfiguiert ist, so dass die Integration schnell und reibungslos erfolgen kann. Für andere Systeme sollte der Knowledge Hub zumindest anpassbar sein.
Wo geht die Reise hin?
Vor dem Hintergrund des skizzierten Knowledge Hubs drängt sich die Frage auf, welche Rolle der Technischen Kommunikation zukommt. Werden technische Informationen in Zukunft von KI-Anwendungen erstellt und publiziert? Wird die Technische Redaktion dadurch überflüssig? Oder ist sie weiterhin integraler Bestandteil, wenn es darum geht, Informationen zielgruppengerecht aufzubereiten?
Auf riesigen Sprachmodellen (Englisch „large language model“, kurz LLM) basierende Chats sind aktuell groß im Trend. Sie versprechen, den Anwenderinnen und Anwendern Antworten auf alle denkbaren Fragen zu geben. Allerdings unterlaufen diesen Chats immer wieder dumme Fehler. Man sagt, dass sie halluzinieren. Bei einigen Anwendungen soll dieses Phänomen bei bis zu zehn Prozent der Anfragen der Fall sein. Wenn es darum geht, technische Informationen zu Produkten mit hohen Anforderungen an die Produktsicherheit zur Verfügung zu stellen, kann dieser Wert nur beunruhigen. Ein winziger Fehler kann sich folgenschwer auswirken. Das Vertrauen in Chats dieser Art kann also nur gering sein.
Steigern lässt sich das Vertrauen, indem Chats nicht ausschließlich auf LLMs, sondern zusätzlich auf Wissensgraphen basieren. Diese liefern das kontextspezifische, faktische Wissen, das richtige von falscher Information unterscheiden kann. So kann sich zum Beispiel eine Montageanweisung für ein Produkt A von der Montageanweisung für ein Produkt B in einem kleinen, aber entscheidenden, da sicherheitsrelevanten Detail unterscheiden. Einem Sprachmodell entgeht womöglich dieser feine Unterschied.
Dies ist genau die Stelle, an der die Technische Redaktion ins Spiel kommt. Auch weiterhin wird sie eine zentrale Rolle beim Erstellen und Publizieren technischer Informationen haben, und zwar in dreierlei Hinsicht:
- bei der Erstellung von qualitativ hochwertigen Inhalten mittels geeigneter Informationsmodelle
- in der Bereitstellung von kontextuellem Wissen mittels Metadaten
- in der Vermittlung der richtigen Information im richtigen Medium dank einer umfassenden Content-Strategie
Diese drei Punkte werde ich in den nächsten Abschnitten näher beleuchten.
Inhalte erstellen
Bevor ich auf die Besonderheiten von Informationsmodellen eingehe, möchte ich eine Grundvoraussetzung erwähnen: die Topicorientierung bzw. Topicalität (Inf. 02). Diese sollte in modernen Technischen Redaktionen selbstverständlich sein. Das Denken und Arbeiten in Dokument- bzw. Buchstrukturen ist heute aber weit verbreitete Praxis. Für die weiteren Überlegungen gehe ich davon aus, dass eine Technische Redaktion ihre Inhalte in Topics erstellt und die Informationsmodelle der einschlägigen CCMS diese Topicorientierung im Grunde unterstützen. Allerdings tun die verschiedenen Informationsmodelle dies in unterschiedlichem Maß. Das hat wiederum Einfluss auf die (effiziente) Erstellung der Inhalte. Ich unterscheide zwischen generischen und spezifischen Informationsmodellen.
Kriterien von Topicalität |
Kohärenz: Ein Topic ist inhaltlich geschlossen; das heißt, ein Topic hat eine kommunikative Funktion und behandelt ein Thema. Kohäsion: Die sprachlichen Mittel (wie zum Beispiel referenzielle oder temporale Ausdrücke) weisen nicht über das Topic hinaus; das heißt, die Verknüpfung oder Abgrenzung von Sachverhalten wird ausschließlich über die sprachlichen Mittel innerhalb eines Topics realisiert. Informativität: Das Topic liefert den Anwenderinnen und Anwendern wertvolle Informationen; das heißt, das Topic liefert neue Informationen. Situativität: Die in einem Topic vermittelte Information ist für die Anwenderinnen und Anwender relevant; das heißt, der Informationsgehalt ist dem konkreten Handlungskontext angemessen. Intertextualität: Das Topic ist an andere Topics anschlussfähig; das heißt, ein Topic ist so gestaltet, dass es in größere Zusammenhänge eingebettet werden kann. Inf. 02 Quelle Martin Ley |
Generische Informationsmodelle haben keine bis wenig semantische Ausprägung. Das bedeutet, dass es häufig lediglich einen Topictyp gibt, und dieser Topictyp wiederum eine vorgegebene, allgemeingültige Struktur hat. So besteht ein Topic häufig aus einem Titel. Ihm folgen typischerweise Paragrafen, Tabellen, Listen und Bilder, aber auch Warnungen, Handlungsaufforderungen oder Resultate sind vorhanden. Die Sequenzierung, also die Reihenfolge dieser Elemente ist im Normalfall nicht vorgegeben.
Spezifische Informationsmodelle hingegen bieten eine Auswahl an verschiedenen Topictypen, etwa einen Topictyp für technische Daten, einen für Einbauanweisungen, einen für Funktionsbeschreibungen und einen für die Hilfe bei Problemen. Abhängig vom Topictyp haben diese Topictypen unterschiedliche Elemente in einer vorgegebenen Reihenfolge. Hier einige Beispiele:
- in beschreibenden Topictypen sind es Paragrafen, Listen, Bilder oder Tabellen
- in anleitenden Topictypen sind es Warnungen, Voraussetzungen, Werkzeuge, Ersatzteile, Handlungen und Resultate
Das Erfassen der Inhalte in semantisch ausgeprägten Informationsmodellen kann als effizienter betrachtet werden. Zum einen aufgrund der Tatsache, dass diese Informationsmodelle die Personen, die Inhalte erstellen, gewissermaßen an der Hand nehmen und durch den Workflow führen. Die Effizienz zeigt sich zum anderen in der Weiterverarbeitung der Inhalte bzw. fehlenden Nacharbeit. Semantisch „ausgezeichnete“ Inhalte liefern die Basis für viele heute noch nicht bekannte Anwendungsfälle.
In diesem Zusammenhang sollte erwähnt werden, dass viele Redakteurinnen und Redakteure das Arbeiten in semantischen Strukturen kritisch sehen. Eine Ursache dafür liegt sicherlich darin, dass (XML-)Editoren nicht gerade nutzerfreundlich sind. Es gibt aber vielversprechende Ansätze, dass zum Beispiel mit Hilfe von ChatGPT unstrukturierte Inhalte in semantische Strukturen überführt werden können, wie auch insgesamt erste Text(roh)fassungen mithilfe von KI-Anwendungen generiert werden. Die Aufgaben der Technischen Redaktion verschieben sich somit weg vom eigentlichen Schreiben, hin zum Verifizieren und Freigeben der Inhalte.
Inhalte klassifizieren
Neben dem eigentlichen Erstellen der Inhalte wird die Klassifikation der Inhalte mit Metadaten immer wichtiger. Nicht nur, um einem Chat kontextuelles Wissen bereitzustellen und dessen Vertrauenswürdigkeit zu steigern. Für die Vernetzung der Inhalte in einem Knowledge Hub oder das effiziente Verwalten der Inhalte sind Metadaten ebenfalls unverzichtbar. Abermals ein Indiz, dass sich das Tätigkeitsspektrum der Technischen Redaktion verändert.
Im klassischen Redaktionsprozess werden die benötigten Metadaten im CCMS aus Auswahllisten oder Taxonomien bestimmt und den Inhalten zugewiesen. In generischen Informationsmodellen geschieht dies in erster Linie auf Topicebene, so dass sich so weitere Topictypen definieren lassen. Neben der inhaltlichen Klassifikation werden die Inhalte sinnvollerweise auch hinsichtlich der Komponente klassifiziert, zu der sie gehören. Technisch möglich und im Metadatenstandard der tekom vorgesehen, können ganze Topics zusätzlich hinsichtlich weiterer Metadaten klassifiziert werden wie zum Beispiel Wartungsintervalle oder Hilfsmittel. Das ist zwar praktikabel, aus semantischer Sicht jedoch unsauber: Das Topic ähnelt einer „Black Box“, der Informationsgehalt im Inneren des Topics bleibt verborgen.
Bei semantischen Informationsmodellen ist dies sauber gelöst, da die einzelnen Elemente ja genau das bezeichnen, was sie enthalten. Als Ausweg in generischen Informationsmodellen bleibt die Möglichkeit, einzelne Elemente innerhalb eines Topics als so genannte Fragmente zu definieren und diese über Metadaten zu typisieren: zum Beispiel ein Fragmenttyp für Werkzeuge oder ein Fragmenttyp für Wartungsintervalle.
Werden Technische Redakteurinnen und Redakteure in Zukunft also weniger schreiben und mehr klassifizieren? Sie werden sich zumindest verstärkt um die Organisation der – rasant wachsenden Menge an – Informationen kümmern müssen. Doch Rettung scheint in Sicht. Denn entsprechende Anwendungen können Inhalte anhand von Oberflächenmerkmalen oder mittels maschinellen Lernens automatisch klassifizieren. Mit Blick auf ein „Knowledge Hub fokussiertes Erstellen“ von Inhalten ist zudem denkbar, dass der Redaktionsprozess bereits im Wissensgraphen beginnt. Hier identifizieren so genannte Informationsmanager und Informationsmanagerinnen die Informationsbedarfe und erzeugen entsprechende Objekt im Wissensgraphen. Durch diese Verortung sind die Objekte ausreichend klassifiziert und werden mit vielen relevanten Metadaten an ein CCMS weitergereicht. Dort besteht die Aufgabe der Technischen Redaktion darin, die Inhalte zu erfassen bzw. zu veredeln. Die Klassifikation, also die Vergabe von Metadaten kommt (zumindest großenteils) automatisch mit.
Diese Ausführungen zeigen: Die effiziente Erstellung und Klassifikation von Inhalten sind keine Aufgaben mehr, die ausschließlich die Technische Redaktion trägt. Viele unterschiedliche Bereiche innerhalb eines Unternehmens sind involviert. Damit Informationen in einem Knowledge Hub vernetzt werden können, brauchen sie zudem einen gemeinsamen Nenner, sie brauchen ein einheitliches Metadatenmodell.
Metadaten verteilen
Das Herzstück eines Knowledge Hub ist ein so genanntes Wissensmodell in einem Taxonomie-Management-System. Ein großer Teil dieses Wissensmodells sind Metadaten, die ein Thesaurus enthält. Der Thesaurus hat dabei mehrere Aufgaben. Er soll:
- Metadaten aus (ausgewählten) Quellsystemen (etwa einem ERP) aufnehmen
- ggf. Metadaten unterschiedlicher Systeme (etwa CCMS und SPC) harmonisieren
- Metadaten an (ausgewählte) Systeme (etwa CCMS oder CDP) verteilen
Damit diese Aufgaben realisiert werden können, bedarf es im Knowledge Hub einer entsprechenden Systemkomponente. Diese ermöglicht es, Metadaten für ein konkretes System auszuwählen, in die gewünschten Formate wie XLS oder JSON zu transformieren und den konsumierenden Systemen zur Verfügung zu stellen.
Content-Strategie entwickeln
Unter einer Unified-Content-Strategie verstehe ich die Festlegung, welche Inhalte in welcher Form erstellt und wo publiziert werden. Dies kann sich einerseits erstrecken auf die Inhalte der Technischen Kommunikation, andererseits auf Inhalte, die von anderen Bereichen erstellt werden. Dazu zählen etwa Marketing oder Vertrieb.
Schauen wir an dieser Stelle auf die Inhalte der Technischen Kommunikation, speziell auf Reparatur- und Serviceinformationen. Gerade unter Berücksichtigung unterschiedlicher Publikationskanäle wie Print, Online und Mobile muss eine Content-Strategie berücksichtigen, welche Arten von Informationen es gibt. Zu diesen Informationsarten gehören Einbau- und Ausbauanweisungen, Prüfanweisungen oder Wartungsanweisungen. Diese stehen zunächst isoliert, müssen aber, wie unter Topicalität angedeutet, eine Anschlussfähigkeit zu anderen Inhalten besitzen. Nur so können sie in verschiedenen Kontexten auf unterschiedliche Art und Weise publiziert werden.
In einem online bereitgestellten Servicehandbuch beispielsweise orientiert sich die Publikationsstruktur an der Komponentenstruktur des Produkts. Hier kann, besonders unter Berücksichtigung der Ökonomie, von einem Topic auf ein anderes mittels Hyperlink verwiesen werden. In einem Service-Assistenten wäre die daraus resultierende „Querverweisorgie“ jedoch inakzeptabel. Hier sollten die Verweise aufgelöst und die Inhalte in der handlungslogischen Struktur präsentiert werden. Analog müssen Konzepte entwickelt werden, wie zum Beispiel mit Ressourcen wie Ersatzteilen oder Werkzeugen umgegangen wird.
Zudem gehört zu einer Content-Strategie, was in dem Fall passiert, wenn die gedruckte Anleitung entfallen sollte: Welche Inhalte müssen in einer gedruckten Sicherheitsbroschüre publiziert werden? Welche Inhalte landen in welcher Sequenzierung in dem einen oder anderen digitalen Kanal? Die bereits erwähnten Informations- und Metadatenmodelle müssen in der Lage sein, die definierte Content-Strategie zu unterstützen.
Das Reifegrad-Modell
Die bisherigen Überlegungen haben gezeigt: Die Erstellung und Klassifikation der Inhalte, also das Content Management, können nur sinnvoll vor dem Hintergrund der Verteilung der Inhalte, also des Content Delivery, betrachtet werden. Die Knowledge-Hub-
Lösung stellt dabei eine sehr hohe, wenn nicht die höchste Stufe dar, die erreicht werden kann. Da ein Knowledge Hub die Basis für den digitalen Informationszwilling liefert, bezeichne ich diese Stufe auch als die virtuelle. Diese Stufe lässt sich ihrerseits nur realisieren, wenn das Content Management mindestens ein produktzentriertes ist. Gleichzeitig haben wir am Beispiel der Verteilung von Metadaten gesehen, dass eine Reihe von Beteiligten aus unterschiedlichen Unternehmensbereichen involviert ist. Damit dies wiederum gelingen kann, sind bestimmte Voraussetzungen für die Prozesse notwendig. Ad-hoc oder rudimentär gelebte Prozesse werden ein Unternehmen nicht in die Lage versetzen, produktzentriertes oder semantisches Content Management zu betreiben.
Diese Abhängigkeiten lassen sich in einem 360°-Reifegrad-Modell darstellen. Ergänzend zu den genannten drei Aspekten kommt als vierter die Servicereife hinzu. Diese drückt die Servicestrategie eines Unternehmens von reaktiv bis proaktiv aus (Abb. 01).
Das Reifegrad-Modell erlaubt es somit, den Ist-Zustand eines Unternehmens zu erfassen und einen Soll-Zustand zu definieren. Über die einzelnen Stufen lassen sich Maßnahmen in den jeweiligen Aspekten ableiten. Es macht deutlich, dass zum Erreichen eines Zielbilds viele unterschiedliche Dinge angegangen werden müssen. Ein isolierter Blick auf Content Management oder Content Delivery greift zu kurz. Bevor also über Systeme nachgedacht wird, sollten effiziente Prozesse etabliert werden.
Literatur zum Artikel
Ley, Martin (2018): Informationen erhalten Bedeutung. In: technische kommunikation 4/18, S. 50–55.
Ley, Martin (2019): Informationen intelligent bereitstellen. In: technische kommunikation 6/19, S. 46–53.
Ley, Martin/Schrempp Karsten (2021): Raus aus dem Informationsdilemma. In: technische kommunikation 3/21, S. 31–37.
Gutknecht, Matthias/Ley, Martin (2022): Bringt Mehrwert im Service: Semantisches Informationsmanagement in Wartung und Instandhaltung. In: DOK, 1/22, S. 30–35.