Technikethik im Jahr 2021

Text: Karsten Wendland

Mehr Kameraüberwachung im öffentlichen Raum oder das Beatmen von Patienten nach dem Triage-Prinzip sind Beispiele dafür, wie sich Ethik und Technik verändern. Auch die Technische Redaktion sollte Schritt halten. Vorausgesetzt, sie bekommt Antworten darauf, was unter Technikethik zu verstehen ist.

Inhaltsübersicht

Lesedauer: 12:24 Minuten

Manchmal muss es wirklich schnell gehen. Doch auch in der Akutsituation verlangt das Stille Örtchen im Zentrum des Himmelstempelparks in Peking dem Besucher eine wertvolle Pause ab, denn im sanitären HiTech-Häusle ist zuallererst ein Gesichts-Scan an einem Automaten fällig. Ist mit der Identität alles in Ordnung, erhält man einen Streifen von 60 cm Toilettenpapier zur freien Verfügung. Und sollte dies nicht reichen – ja, dann hat man Pech gehabt. Denn bei der Zweitvorstellung wird man vom Automaten höflich abgewiesen, denn die individuelle Tagesration wurde schließlich schon ausgegeben.

Immerhin bekommt man dort überhaupt sein Material, ganz im Gegensatz zu Seifenspendern, die in jüngerer Zeit ebenfalls einen Unterschied in der Zuteilung gemacht und damit zweifelhafte Berühmtheit erworben haben. Diese Modelle sollten bestimmungsgemäß je eine Portion Flüssigseife auslassen, sobald mittels optischer Sensoren eine untergehaltene Hand erkannt wurde. Es wurde allerdings nicht jede Hand erkannt. Sie musste schon hell genug sein. Denn nur mit hellhäutigen Test-Händen wurde das System entwickelt. Hatte man dunkle Hände, gab es keine Seife. Mit kurz untergehaltenen Papiertüchern und ähnlichen Hilfsmitteln musste man das System austricksen, um doch an die Seife zu kommen.

Während das Klopapierbeispiel amüsant, sehr weit weg und überdies technisch absolut so gewollt ist, wird es im zweiten Fall doch blamabel und beschämend. Sicherlich hat diese Unterscheidung zwischen hellen und dunklen Händen niemand im Systemkonzept des Seifenspenders so beabsichtigt oder gar weltanschaulich so entschieden. Das System ist aber so, wie es ist, in die Welt gesetzt. Und seine Implementierung trägt die beschriebenen Eigenschaften in sich.

Wie verändern sich die Maßstäbe?

In unserem Zeitalter des Anthropozän macht der Mensch sich die Welt, so wie sie ihm gefällt. Unsere enormen Fortschritte in Technik und Wissenschaft stellen uns neben vielen bedeutenden Möglichkeiten und Errungenschaften auch regelmäßig vor neue Fragen und Herausforderungen, zu denen wir uns irgendwie verhalten müssen. Wir, das sind letztlich wir alle in unterschiedlichen Rollen, in unterschiedlichen Feldern und mit verschiedenartigen Fähigkeiten und Verantwortlichkeiten.

Einfache neue Fragen sind aber oft überhaupt nicht einfach zu beantworten, vor allem wenn es keine vergleichbaren Fälle, keine Vorprodukte und keine passenden Vorgeschichten aus der Vergangenheit gibt. Manche Dinge und Situationen sind für uns tatsächlich neu. Plötzlich sind Dinge möglich, die vorher noch nicht gingen. Und wir können, dürfen und müssen Entscheidungen treffen zu Fragen, die sich so vorher noch nicht stellten, sei es aus technischen, gesellschaftlichen, umweltbezogenen oder auch geopolitischen Gründen.

So geht es aktuell im Jahr 2021 etwa um die brisante Frage, ob wir unsere Flugdrohnen für Militäreinsätze perspektivisch nicht doch bewaffnen sollten oder ob das grundsätzlich ausgeschlossen zu bleiben hat. Ob sie in Sondersituationen selbsttätig auslösen können sollen oder ob, wie bei uns gesetzlich verankert, immer ein Mensch den roten Knopf drücken muss, und sei es aus der Ferne. Sollen wir die Überwachung öffentlicher Plätze verstärkt mit automatischer Personenerkennung ausstatten, um Bösewichte im Getümmel identifizieren zu können und überdies den Effekt der Abschreckungswirkung solcher Installationen zu nutzen? Oder schreckt uns die Falschpositiv-Rate solcher Systeme ab, durch deren Erkennung Touristen zu Terroristen werden können, und wollen wir nicht vielleicht aus ganz grundsätzlichen Erwägungen die Menschen in ihrer Freiheit wieder viel mehr in Ruhe lassen? Sollen wir (als Staat) Ausspähungssoftware beschaffen und auf technischen Geräten von Verdächtigen installieren und die Daten möglicherweise sogar auch für andere Bedarfe auswerten dürfen – heiligen die Zwecke die Mittel?

Zu manchen solcher Fragen gibt es gesetzliche Vorgaben auf Landesebene (Überwachung öffentlicher Plätze), Bundesebene (Militär) oder auf den Ebenen von Europäischer Union und Bündnispartnern. Doch auch solche Vorgaben sind ähnlich herausgefordert von tatsächlich neuartigen Situationen, so dass sie ihre Plausibilität und Sinnhaftigkeit verlieren können und dringende Neubewertungen mit normativen Festlegungen anstehen.

Eine erste Antwort auf Fragen des obigen Kalibers heißt daher oft: „Es kommt darauf an.“ Aber worauf denn genau, und wie geht man die Sache an? Hier schlägt die Stunde der Ethik, hier kann sie sich nützlich machen und Beiträge leisten, die Orientierung herstellen und kriterienbasierte Entscheidungen unterstützen.

Ist das nun Ethik oder Moral?

Wie lassen sich nun Ethik und Moral voneinander unterscheiden? Schnellantwort: Die Moral haben wir bereits und navigieren mit ihr durchs Leben. Ethik wird dort gebraucht, wo die Orientierungslücken auftauchen. Beides wird in der Alltagssprache mitunter gleichgesetzt, etwa wenn einer Angelegenheit „aus ethisch-moralischen Gründen“ eine bestimmte Entscheidungsrichtung gegeben werden soll, teilweise auch als rhetorischer Versuch, eigene Standpunkte durchzusetzen. Sauberer getrennt verweist die Moral auf biografisch und kulturell erworbene und in sozialen Gruppen akzeptierte Verhaltensweisen und Entscheidungsmuster, mit denen man untereinander gut zurechtkommt.

Stoßen nun verschiedene Moralvorstellungen aufeinander, kann es durchaus unruhig werden, in günstigen Fällen kommt es zu Aushandlungsprozessen und einem gemeinsamen Verständnis zur Sache. Wird „moralisiert“, bedeutet das, dass Moralvorstellungen überdehnt und als Instrumente zum Zwecke der Interessendurchsetzung eingesetzt werden. Auf der Ebene der Ethik wird nun versucht, sich genau von diesen Moralen und Moralisierungen zu entkoppeln und stattdessen Orientierungen zu neuen Situationen zu geben. Das geschieht, indem man die Kriterien, anhand derer eine Sachlage beurteilt werden kann, unter Zugriff auf gegebene Gesetze, Normen und Werte herausarbeitet.

Greifbar wird dies am Beispiel der Triage-Diskussion im Frühjahr 2020: Wer soll künstlich beatmet werden, wenn die Zahl der verfügbaren Plätze kleiner ist als die Zahl der hiermit zu versorgenden Patienten? Moralisch gab es hierzu zahlreiche Positionen, etwa: Alte bekämen Vorrang gegenüber Jungen, denn ihre Körper seien ja schon älter und bräuchten daher mehr medizinische Unterstützung. Oder: Junge bekämen Vorrang gegenüber Alten, denn sie hätten ja noch viel länger zu leben und zahlten sicherlich noch mehr Steuern ins System ein, während die Alten ja vom Staat alimentiert würden. Neben Alter als Kriterium wurden noch etliche weitere, teilweise kuriose Unterscheidungsmerkmale aus unterschiedlichen Richtungen ins Spiel gebracht und Szenarien ausgemalt, in denen dann im Gedankenexperiment etwa ein künstlich beatmeter arbeitsloser Straftäter einer Bundesministerin mit Akutbedarf gegenüberstand und die Frage gestellt wurde, wer denn nun „mehr wert“ sei. Eine solche Fragestellung stößt sich allerdings schon an den ersten Artikeln unseres Grundgesetzes, insbesondere Artikel 3 Absatz 1, nachdem alle Menschen vor dem Gesetz gleich sind. Sind sie es aber auch vor dem Intensivmediziner? Und wie genau wird dies alles in medizinischen Leitlinien operationalisiert?

Zu dieser akuten und in dieser Form tatsächlich neuen Situation zur Triage gab der Deutsche Ethikrat die Ad-hoc-Empfehlung heraus, dass das entscheidende Kriterium bei der Frage, welcher Patient an die Beatmung kommt und wer nicht, die bessere Chance auf das Überleben dieser akuten Krankheitsphase sein solle. Unabhängig vom Alter und weiteren hier als sekundär betrachteten Kriterien.

Diese Empfehlung wurde vom höchsten Beratungsgremium dieser Art in Deutschland ausgesprochen. Grundlage ist das Ethik­ratgesetz von 2008. Das Vorläufergremium bis dahin war der 2001 von der Bundesregierung eingerichtete Nationale Ethikrat. Allerdings – und das ist wichtig – ist es nur eine Empfehlung eines möglichst unabhängigen Gremiums und kein Gesetz, keine Norm und keine Vorgabe. Stellungnahmen und Empfehlungen dieses Ethikrats sollen Orientierung geben. Inwiefern Politik, Wirtschaft und Zivilgesellschaft sie aufgreifen und operationalisieren, liegt jeweils in deren Ermessen. Der Intensivmediziner vor Ort erwartet allerdings „von oben“ eine für ihn anwendbare medizinische Leitlinie für genau die beschriebenen Situationen – nicht zuletzt auch aus Haftungsgründen.

Kann Technik neutral sein?

Die Beatmungsmaschine entscheidet nicht selbst, wer an sie angeschlossen wird. Dies machen irgendwelche Menschen. Ist sie selbst deshalb „neutral“? Wie steht es mit anderen Werkzeugen wie dem einfachen Hammer? Mit ihm lässt sich das Nägelchen in die Wand klopfen wie auch der Nachbarschaftsstreit beenden, mit Drohgebärde oder gar schlagkräftigem Einsatz – ein gängiges Beispiel für Dual-Use-Anwendungsmöglichkeiten von Technik. Den Einsatzzweck legt erst der Mensch fest. Wie aber ist es mit dem ritterlichen Morgenstern? War er nicht für einen bestimmten Zweck erdacht und gemacht worden, und wie steht es mit der Guillotine?

Ob Technik an sich neutral ist oder nicht, ist schon lange ein beliebtes Streitthema, in dem sich zwei Grundpositionen gegenüberstehen. Die erste: Technik selbst ist selbstverständlich neutral. Es hängt vom Menschen und seinen Absichten ab, was er damit macht. Die zweite: Wenn Technik entwickelt wird, sind stets schon Ziele und Intentionen im Spiel. Technik wird für Zwecke gemacht, sie fällt nicht so einfach vom Himmel. Und die Intentionen, aus denen heraus die Technik entsteht, sind Bestandteil ihres jeweiligen Grundkonzepts.

Heutige Technik ist vielfach komplexer als Hammer und Morgenstern, und die technikethischen Fragestellungen sind es erst recht. Auseinandersetzungen benötigen in unseren globalisierten und digitalisierten Zusammenhängen vielfach den Plural, Rechtslagen und kulturelle Kontexte können stark unterschiedlich geprägt und die schon mehrfach erwähnten Wertekategorien und Kriterien sehr unterschiedlich gefüllt sein. Armin Grunwald und Rafaela Hillerbrand haben mit der soeben erschienenen Neuauflage des „Handbuch Technikethik“ (2021) ein Nachschlagewerk herausgebracht, in dem verschiedenste aktuelle Felder und Fragestellungen von Autoren mit unterschiedlichen fachlichen Zugängen diskutiert werden. Oliver Bendel stellt in seinem Buch „400 Keywords zur Informationsethik“ vor. Für Interessierte sind Einstiege leicht geworden. Angewandte Technikethik mit konkreten Bezügen kann man selber machen, sie „gehört“ nicht Philosophen oder Ethikern allein, sondern braucht im Gegenteil technisches Fachverständnis, oft sogar im Detail. Ich selbst vertrete und unterstütze seit 20 Jahren den Ansatz der „Selbstaufklärung der technischen Disziplinen“, die aus den technischen Kerngebieten heraus auf „Import“ von Erkenntnissen und Methoden aus anderen Disziplinen und auf eigenen Kompetenzaufbau in den Randgebieten und Übergangsfeldern setzt. So kann zu technikethischen Fragestellungen schon unter Technikern reflektierte Urteilsbildung stattfinden und Sprechfähigkeit nach innen wie nach außen aufgebaut werden.

Entscheidungen einfach ausrechnen?

Auf eine zweite bedeutsame Polarisierung stößt man, wenn es um die konkrete Bewertung von Fällen und Konstellationen geht. Im Beispiel der Patientenbeatmung hätte man als einfachen Bewertungsmaßstab die durchschnittliche Lebenserwartung als Kennzahl nehmen und im Triage-Fall das Ergebnis einfach ausrechnen können. Die erwartbaren verbleibenden Lebensjahre in der Gesamtfallbetrachtung würden maximiert – Problem gelöst. Diese Herangehensweise entspricht dem Bewertungskonzept des Utilitarismus, der einfach gesagt „das größte Glück der größten Zahl“ anstrebt sowie umgekehrt als negativer Utilitarismus das Leid versucht zu minimieren. Dies ist mathematisch sauber, im kontinentaleuropäischen Kontext aber oft mit großem Unbehagen und dem Vorbehalt verbunden, dass man doch nicht so simpel über Leben und Tod entscheiden dürfe. Utilitaristischen Positionen wird oft die Ethik Immanuel Kants gegenübergestellt, der sich sein Leben lang mit der Frage „Was sollte ich tun?“ auseinandergesetzt und hierzu viel Material produziert hat. Nach Kant’scher Ethik würde man versuchen, differenzierte Lösungen zu finden, die den Menschen und den Umständen gerecht werden und wiederverwertbar sind, also „zum Gesetz werden könnten“. Für Fragestellungen der Technikethik bietet sich mitunter an, auf beide Grundpositionen zuzugreifen, mit unterschiedlichem Anwendungszweck. In Akutsituationen kann eine utilitaristische Bewertung schnelle Ergebnisse bringen. Steht etwas mehr Zeit zur Verfügung, ist von differenzierten Ansätzen eine tiefere Problemdurchdringung mit entsprechend höherer Ergebnisqualität erwartbar – zum Beispiel schon für den Systementwurf. Die Mitglieder des Deutschen Ethikrats waren zur Triage-Fragestellung unter Zeitdruck und dennoch zeitlich intensiv eingebunden.

Auf öffentliche Vorgaben warten?

Gesetze und Normen laufen den technischen Entwicklungen typischerweise hinterher. Vom politischen Betrieb wird allerdings erwartet, auch in neuen Feldern Orientierung zu aktuellen Fragestellungen und absehbaren Situationen zu bieten. Im Jahre 2018 setzte die Bundesregierung eine Datenethikkommission ein mit dem Auftrag, innerhalb eines Jahres ethische Maßstäbe und Leitlinien für den Schutz des Einzelnen, des gesellschaftlichen Zusammenlebens sowie zur Sicherung des Wohlstands zu erarbeiten. Der Fokus lag auf algorithmischen Systemen und dem Umgang mit Daten. Die Kommission war mit Vertretern aus Wissenschaft, Wirtschaft und öffentlichen Stellen besetzt. Im Ergebnis wurde ein umfassender und gut strukturierter Bericht vorgelegt, in dem in die ethischen und rechtlichen Grundsätze und Prinzipien eingeführt wird, technische Grundlagen erläutert werden, in Eigenschaften der Governance komplexer Datenökosysteme eingeführt wird und schließlich die entwickelten Leitlinien, Analyse- und Bewertungsschemata für Daten und algorithmische Systeme vorgestellt werden. Dankenswerterweise liegt auch eine Kurzfassung des über 200-seitigen Dokuments mit wesentlichen Kerninhalten vor – eine Quelle wertvoller Informationen und Anregungen für alle, die mit Digitalisierung und Automatisierung zu tun haben und in ihren Feldern grundsätzliche Abwägungen durchzuführen und relevante Entscheidungen zu treffen haben.

Zu offenen Fragen zur Vertrauenswürdigkeit Künstlicher Intelligenz wurde 2017 eine hochrangige Expertengruppe mit 54 Mitgliedern durch die Europäische Kommission aktiviert, die 2019 ethische Leitlinien in allen europäischen Sprachen veröffentlicht hat (inf. 01, s. 18). In sieben Schwerpunktfeldern wird dargestellt, welche Erwartungen an KI-Systeme erfüllt werden sollen:

  • Vorrang menschlichen Handelns und menschlicher Aufsicht
  • Robustheit und Sicherheit
  • Privatsphäre und Datenqualitätsmanagement
  • Transparenz
  • Vielfalt
  • Nichtdiskriminierung und Fairness
  • Gesellschaftliches und ökologisches Wohlergehen
  • Rechenschaftspflicht

Beide Dokumente – das Gutachten der Datenethikkommission sowie auch die KI-Leitlinien der Europäischen Kommission – sind nicht nur für die Hersteller von Systemen interessant. Auch kundenseitig bieten sie Orientierung, etwa für die Beschaffung von Systemen oder die Auswahl von Dienstleistern.

Wer hilft im Zweifelsfall weiter?

Für die berufliche Praxis haben einige Berufs- und Branchenverbänden ethische Leitlinien entwickelt. Diese vergleichsweise knapp gehaltenen Texte sind als Orientierungshilfe für ihre Mitglieder zur Rolle des Einzelnen und seiner ethischen Verantwortung in der betrieblichen Praxis und hinsichtlich Technikfolgen und Auswirkungen auf die Welt insgesamt geschrieben. Vielfach unbekannt ist, dass einige Verbände aktive Unterstützung in schwer auflösbaren ethischen Konfliktfällen mit dem Arbeitgeber anbieten. Hierbei wird der Zugriff auf juristische Kompetenz und aktive Interessenvertretung in Aussicht gestellt.

Sowohl die ethischen Leitlinien des VDI als auch jene der Gesellschaft für Informatik stellen klar, dass bei nicht innerbetrieblich auflösbaren ethischen Konfliktfeldern auch die Alarmierung der Öffentlichkeit in Erwägung zu ziehen sein kann. Der Einzelne wird darin bestärkt, auf ethische Problematiken hinzuweisen und diesen in professionellem beruflichem Selbstverständnis nachzugehen. Wird etwas vertuscht? Werden geltende Normen und bestehende Werte verletzt? Haben Produkte und Prozesse eine unglückliche Schlagseite, über die nicht gesprochen wird? Wird gegen geltendes Recht verstoßen? Greift die Verantwortung zu kurz?

Beim Technischen Redakteur laufen im Arbeitsalltag viele Informationen zusammen, die bei anderen beteiligten Akteuren oft nur in Ausschnitten vorliegen. Es ist durchaus möglich, dass ausgerechnet der Technische Redakteur als Einziger ein mulmiges Gefühl bei einer Sache bekommt oder gar grobe Fehler erkennt, die unbedingt eingefangen werden müssen, um schlimme Folgen abzuwenden. Zu lange mit Hinweisen zu zögern oder etwa gar nichts zu tun aus Angst, nicht als Held gefeiert, sondern als Verräter gefeuert zu werden, wäre sicher eine schlechte Lösung. Einige Fachverbände bieten für solche Fälle juristischen Beistand an. (Inf. 01)

Leitlinien und Empfehlungen

Ethik-Leitlinien für vertrauenswürdige KI, herausgegeben von der Europäischen Kommission (2018):
→ op.europa.eu/s/sg3b
Gutachten der Datenethikkommission (2019):
→ www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.html
Ethische Grundsätze des Ingenieurberufes des VDI (2002)
→ www.vdi.de/fileadmin/pages/mein_vdi/redakteure/publikationen/VDI_Ethische_Grundsaetze.pdf
Ethische Leitlinien der Gesellschaft für Informatik (2018)
→ gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien

Inf. 01 Quelle Karsten Wendland

Geht es nicht einfacher?

Könnte man die ganze Ethik nicht einfach automatisieren oder an Künstliche Intelligenz als vermeintlich objektive Instanz abtreten? Die kurze Antwort ist: nein, die längere würde mindestens einen weiteren Artikel füllen. Wer hierzu tiefer einsteigen möchte, findet in meiner Podcast-Serie „Selbstbewusste KI“ in der Folge mit der Rechtswissenschaftlerin Frauke Rostalski Impulse zum Weiterdenken. Grundsätzlich darf man bei KI nie vergessen, dass die Systeme stets mit Daten und Vorgaben aus der Vergangenheit arbeiten, damit an sich konservativ sind und typischerweise für Neubewertungen mit herausforderndem ethischem Reflexionsbedarf allenfalls instrumentelle Basisunterstützung für menschliche Akteure beitragen können. Ethik muss beweglich bleiben, weil die Welt sich bewegt, die Menschheit sich und ihre Umgebung weiterentwickelt und tatsächlich auch immer wieder ganz neue Sachverhalte auftreten, die sich nicht durch Vorformulierungen aus der Vergangenheit „erschlagen“ lassen.

Was muss sich ändern?

Für die nachrückenden jüngeren Generationen scheinen technikethische Fragestellungen meiner Beobachtung nach weniger erklärungsbedürftig und oft intuitiver begreifbar zu sein als für manchen Silberrücken mit langjähriger Berufstätigkeit. Die Gründe sind sicher vielfältig, jüngere Menschen wachsen in die gegebene Komplexität hinein und kommen mit deren Wechselwirkungen oft souverän zurecht. Impulse aus Schulunterricht und Ausbildung mit Konzepten und Aktivitäten über die sprichwörtlichen Tellerränder hinweg schärfen das Bewusstsein für übergeordnete und globale Zusammenhänge und das Selbstverständnis, wichtige Fragen zu stellen und dies nicht bleiben zu lassen. Aber auch wer sich biologisch zum alten Eisen zählt, kann im Kopf jung denken. Technikethik ist für jeden offen. Einsteigen kann man immer, auch ohne akuten Anlass, und an bestehenden Interessen wie Risikovermeidung, Produktqualität, Nutzerzentriertheit oder ganzheitlichen Gesamtbetrachtungen anknüpfen. Selbst wenn man lediglich Haftungsrisiken minimieren möchte, kann sich die Befassung mit Technikethik lohnen.

Für interessengeleitete Einstiege habe ich eine Literaturauswahl zusammengestellt (Inf. 02) und einige „Hubs“ zu Technikethik-Fragestellungen aufgelistet (inf. 03). Im Herbst 2021 werde ich zu einer Auswahl immer wieder angefragter Themen aus Technik- und Digitalethik einen Videoblog aufsetzen und gelegentlich bespielen. Erste Themenwünsche aus jüngeren Diskussionen mit tekom-Regionalgruppen stehen hierzu bereits auf dem Zettel, weitere Anregungen nehme ich gerne auf.

Für die nächsten Jahre ist abzusehen, dass Technikethik eine größere Aufmerksamkeit erfahren wird und auch kundenseitig eine stärkere Nachfrage aufkommen dürfte. Für interessierte Technische Redakteure ist dies eine weitere Möglichkeit, das eigene Portfolio auszubauen und zu stärken.

Aktuelle Buchempfehlungen

Armin Grunwald, Rafaela Hillerbrand (Hrsg.) (2021)
→ Digitale Ethik: Leben in vernetzten Welten. Petra Grimm, Tobias O. Keber, Oliver Zöllner (Hrsg.) (2019)
→ Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen IntelligenzJulian Nida-Rümelin Folgen, Nathalie Weidenfeld (2020)
→ 400 Keywords Informationsethik: Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik Oliver Bendel (2019)

Inf. 02 Quelle Karsten Wendland

Institutionelle Einstiege

acatech-Projekt "Verantwortung in den Technikwissenschaften" (2018-21)
→ www.acatech.de/projekt/verantwortung-in-den-
technikwissenschaften/ 

Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
→ www.itas.kit.edu 
INTEGRATA-Stiftung für humane Nutzung der Informationstechnologie
→ integrata-stiftung.de 
Forum Soziale Technikgestaltung (FST)
→ www.forum-soziale-technikgestaltung.de/

Inf. 03  Quelle Karsten Wendland

 

Titelseite von Ausgabe 06 2021 der technischen kommunikation.