Wissenspool-Beitrag

KI und Ethik in der Praxis – eine kurze Einführung

22.11.2022
Lesezeit: ca. 9 min
Beitrag teilen

Begriffsbestimmung

Wenn wir über KI und Ethik sprechen, dann haben wir es mit zwei Begriffen zu tun, die sich einer präzisen Definition entziehen und daher sehr unterschiedlich gebraucht werden. Im Folgenden meine ich mit KI, beziehungsweise KI-Systemen, solche Technologien, die eine Aufgabe so lösen, dass man bei einem Menschen oder Tier Intelligenz unterstellen würde und dabei einen gewissen Grad an Autonomie haben. Damit fiele ein Taschenrechner, der zwar intelligent rechnet, aber keine Autonomie besitzt, nicht unter diese Definition, sehr wohl aber ein Chatbot, der nicht einem festen Dialogverlauf folgt, sondern aus verschiedenen Optionen wählen kann.  Da bei realen Anwendungen typischerweise eine ganze Reihe von KI- und Nicht-KI-Technologien verbaut sind, muss man im Einzelfall schauen, welche Komponente für den Output maßgeblich ist. Wenn beispielsweise beim Telefonbanking die Spracheingabe über Maschinelles Lernen (KI) funktioniert und danach ein völlig vordefinierter Überweisungsprozess angestoßen wird (normale Software), dann kann man sich fragen, ob das Gesamtsystem überhaupt unter dem Blickwinkel KI betrachtet werden muss.   

Im Alltag werden die Begriffe „Ethik“ und „Moral“ bzw. die Adjektive „ethisch“ und „moralisch (gut)“ häufig synonym gebraucht. Man spricht zum Beispiel von „unethischem Verhalten“, wenn man eigentlich unmoralische, also moralisch schlechte bzw. verbotene Handlungen meint. Auch in wissenschaftlichen Kontexten liest man etwa, eine bestimmte Praxis müsse „ethisch“ gestaltet sein, und in der Regel stört sich niemand an diesem Begriffsgebrauch. In der Wissenschaft ist diese Gleichsetzung mutmaßlich einer wörtlichen Übertragung aus dem Englischen geschuldet, denn die Adjektive moral und ethical werden, anders als im Deutschen, synonym verwendet. Aus philosophischer Perspektive gilt es aber, zwischen Moral und Ethik zu unterscheiden: Moral umfasst in einem weit verbreiteten modernen Verständnis die faktisch vorherrschenden normativen (nicht unbedingt kodifizierten) Regeln, Sitten und Gebräuche in einer gegebenen Gemeinschaft. Moral grenzt sich dabei einerseits von positiv rechtlichen Vorgaben (strafbewehrten Gesetzen) und andererseits von reinen Konventionen etwa der Höflichkeit oder der Etikette ab. Ethik hingegen wird als die (normative) Wissenschaft von der Moral angesehen, als Reflexionswissenschaft. Kurz gesagt verhalten sich „moralisch“ und „ethisch“ zueinander wie „sozial“ und „soziologisch“. Die Soziologie ist eine Wissenschaft, die soziales Verhalten reflektiert. Im Lichte dieser konzeptionellen Differenzierung wird deutlich, dass der Ausdruck „ethische KI“ mindestens mehrdeutig (wenn nicht schlicht ein Kategorienfehler) ist. Man kann aber dennoch versuchen, der Rede von „ethischer KI“ einen Sinn zu verleihen. Dazu bieten sich verschiedene Lesarten an1:  

  1. Der Ausdruck „ethische KI“ könnte in dem Sinne gebraucht werden, dass mittels der Entwicklung und Implementation KI-basierter Systeme moralisch gute Zwecke realisiert werden (sollen).  
  1. Der Ausdruck „ethische KI“ könnte in dem Sinne gebraucht werden, dass in den Entwicklungs- und Implementationsprozess derartiger Systeme oder in deren Nutzung ethische Überlegungen einfließen (sollen).  
  1. Der Ausdruck „ethische KI“ könnte in dem Sinne gebraucht werden, dass KI- basierte Systeme zu dem Zweck entwickelt und implementiert werden (sollen), ethische Deliberation, Begründung und die moralische Entscheidungsfindung zu unterstützen bzw. zu erleichtern.  

Ethische KI in der Praxis

In der Praxis werden wir es im Wesentlichen mit dem 2. Typ von ethischer KI zu tun haben, also damit, dass ethische Überlegungen in die Gestaltung der Systeme einfließen, so dass diese z.B. transparent sind oder die Autonomie der Nutzer nicht einschränken.  

In der öffentlichen Debatte um KI und Ethik werden häufig Gedankenexperimente und sehr unwahrscheinliche Extrembeispiele diskutiert, etwa, ob ein Autonomes Auto bei einem unvermeidlichen Aufprall eher einen Passanten gefährden sollte oder die Insassen. Diese Fragen sollten zwar beantwortet werden, aber sie verstellen in der Vehemenz den Blick auf die vielen kleinen Fragen, die im Alltag eine viel höhere Relevanz haben. 

Ein Kernbegriff, den die Hochrangige Expertengruppe für künstliche Intelligenz der EU (High-Level Expert Group on AI) geprägt hat, ist der der vertrauenswürdigen KI. Ein Instrument hierbei ist eine Bewertungsliste für vertrauenswürdige KI, die eine Reihe von Anforderungen an KI-Systeme aufzählt, die sich aus fundamentalen ethischen Prinzipien wie dem Recht auf menschliche Autonomie oder Fairness ableiten:2  

  1. Human Agency and Oversight; 
  1. Technical Robustness and Safety; 
  1. Privacy and Data Governance; 
  1. Transparency; 
  1. Diversity, Non-discrimination and Fairness; 
  1. Societal and Environmental Well-being; 
  1. Accountability.  

Während einige der Punkte auch für andere (digitale) Technologien relevant sind (wie etwa die Aspekte 2 und 6) oder eher die Prozesse und Rahmenbedingungen betreffen (wie die Punkte 3 und 7), geben die Punkte insgesamt einen Rahmen vor, der den Besonderheiten von KI-Rechnung trägt. Im Dokument der EU werden zu den Unterpunkten jeweils konkrete Fragen gestellt, mit denen man seine eigene Systementwicklung und Systeme entsprechend reflektieren kann. Eine Frage lautet beispielsweise, ob die Nutzer des Systems darüber informiert werden, dass es ein KI-System ist und, ob dabei auch erklärt wurde, welche Grenzen und Einschränkungen des Systems bekannt sind. Häufig werden durch die vertiefenden Fragen schon Lösungsansätze vorgeschlagen.  

Ein Grundsatz sollte es in jedem Fall sein, das System nutzerfreundlich zu dokumentieren: Wozu wurde es gebaut? Wie wurde es trainiert und getestet? Welche Daten verarbeitet es etc.? Wenn diese Fragen beantwortet sind, ist ein guter Schritt in Richtung Transparenz bereits getan. Selbst, wenn das System eine Black-Box ist – bedingt durch die eingesetzte Technologie oder vielleicht auch, weil es Komponenten von Drittanbietern enthält. 

Ausblick

Für die Zukunft werden derzeit Standards und Auditing-Prozeduren speziell für KI entwickelt. Das passiert bereits an verschiedenen Stellen, wie beispielsweise beim TÜV3 oder im etami-Konsortium4. Speziell die KI-Systeme, die im Gebrauch noch weiterlernen, bringen hierbei besondere Anforderungen ein, für die es bisher kaum Auditing-Prozeduren gibt und auch regulatorische Instrumente noch geschaffen werden müssen.  

Dadurch, dass KI-Systeme mehr als ein herkömmliches Werkzeug sind, indem sie sich beispielsweise als „Experten“ in Entscheidungsprozesse explizit einbringen oder im Hintergrund bestimmte Weichen stellen, ohne, dass die Nutzer dies merken, kommt eine ethische Dimension in die Auditing-Prozeduren, die nicht nur auf technische Fragen reduziert werden kann. Hier geht es im gesamten soziotechnischen System auch um Fragen nach Vertrauen oder Arbeitszufriedenheit, die idealerweise in partizipatorischen Prozessen von allen Beteiligten oder geeigneten Interessensvertretern beantwortet werden sollten.

Quellenverzeichnis

1. Teile dieses Kapitels basieren auf dem Aufsatz „Alle reden von ethischer KI – aber was meinen sie damit?“

2. Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment

3. https://www.tuev-verband.de/meldungen/whitepaper-pruefbarkeit-ki-systeme

4. www.etami.eu