nach oben
Meine Merkliste
Ihre Merklisteneinträge speichern
Wenn Sie weitere Inhalte zu Ihrer Merkliste hinzufügen möchten, melden Sie sich bitte an. Wenn Sie noch kein Benutzerkonto haben, registrieren Sie sich bitte im Hanser Kundencenter.

» Sie haben schon ein Benutzerkonto? Melden Sie sich bitte hier an.
» Noch kein Benutzerkonto? Registrieren Sie sich bitte hier.
Ihre Merklisten
Wenn Sie Ihre Merklisten bei Ihrem nächsten Besuch wieder verwenden möchten, melden Sie sich bitte an oder registrieren Sie sich im Hanser Kundencenter.
» Sie haben schon ein Benutzerkonto? Melden Sie sich bitte hier an.
» Noch kein Benutzerkonto? Registrieren Sie sich bitte hier.

« Zurück

Ihre Vorteile im Überblick

  • Ein Login für alle Hanser Fachportale
  • Individuelle Startseite und damit schneller Zugriff auf bevorzugte Inhalte
  • Exklusiver Zugriff auf ausgewählte Inhalte
  • Persönliche Merklisten über alle Hanser Fachportale
  • Zentrale Verwaltung Ihrer persönlichen Daten und Newsletter-Abonnements

Jetzt registrieren
Merken Gemerkt
22.04.2020

VDE und Bertelsmann Stiftung: KI-Ethik messbar machen

Neue Studie

In einer neuen Studie zeigen die Technologieorganisation VDE und die Bertelsmann Stiftung, wie sich Ethikprinzipien für Künstliche Intelligenz (KI) in die Praxis bringen lassen.

In einer neuen Studie zeigen die Technologieorganisation VDE und die Bertelsmann Stiftung, wie sich Ethikprinzipien für Künstliche Intelligenz (KI) in die Praxis bringen lassen. Zwar gibt es eine Vielzahl an Initiativen, die ethische Richtlinien für die Gestaltung von KI veröffentlicht haben, allerdings bis dato kaum Lösungen für deren praktische Umsetzung. Genau hier setzt der VDE als Initiator und Leiter der „AI Ethics Impact Group“ gemeinsam mit der Bertelsmann Stiftung an. Die Studie „From principles to practice – an interdisciplinary framework to operationalise AI ethics“ zeigt, wie mit der geschickten Kombination dreier Werkzeuge – einem WKIO-Modell, einem KI-Ethik-Label und einer Risikoklassifizierung – allgemeine ethische Prinzipien messbar und konkret umsetzbar werden. Das größte Hindernis für die Entwicklung von ethischer KI sind laut VDE und Bertelsmann Stiftung die Unschärfen und die unterschiedlichen Verständnisse von Prinzipien wie „Transparenz“ und „Gerechtigkeit“. Dies führt dazu, dass KI-entwickelnden Unternehmen die nötige Orientierung fehlt und eine wirksame Durchsetzung von KI-Ethik bisher schwierig war.

Production Perig - stock.adobe.com

Messbarkeit und Sichtbarkeit durch WKIO-Modell und Ethik-Label

Das sogenannte WKIO-Modell (im Englischen VCIO: Value, Criteria, Indicators, Observables) schlüsselt Werte in Kriterien, Indikatoren und letztlich messbare Observablen auf. Demonstriert wird dies in der Studie für die Werte Transparenz, Gerechtigkeit und Verantwortlichkeit. Das WKIO-Modell kann von Politikentwicklern, Regulierern und Aufsichtsbehörden genutzt werden, um Anforderungen an KI-Systeme zu konkretisieren und durchzusetzen. Das ebenfalls im Rahmen der Studie entwickelte Ethik-Label für KI-Systeme ermöglicht Unternehmen, die ethischen Eigenschaften ihrer Produkte klar und einheitlich zu kommunizieren. Das Label lehnt sich an das erfolgreiche Energieeffizienzlabel für Elektrogeräte an und schafft sowohl für Konsumenten als auch Unternehmen eine bessere Vergleichbarkeit der auf dem Markt zur Verfügung stehenden Produkte. „Mit dem Label legen wir die Grundlage für das Setzen regulatorischer Grenzen und schaffen gleichzeitig die Voraussetzungen für einen funktionierenden Markt,“ erklärt Dr. Sebastian Hallensleben vom VDE.

Es handele sich nicht um ein ungenaues ja/nein-Gütesiegel, sondern um eine abgestufte Kennzeichnung relevanter Eigenschaften eines Systems, macht Hallensleben deutlich. Welche Eigenschaften sich dabei beispielsweise hinter „Transparenz: Klasse C“ oder „Gerechtigkeit: Klasse B“ verbergen, wird anhand des WKIO-Models spezifiziert. „Für KI-entwickelnde Unternehmen bietet der Ansatz eine Möglichkeit, ethische Selbstverpflichtungen auszudifferenzieren und ihren Mitarbeitenden konkrete Orientierung für die Umsetzung der darin enthaltenen Prinzipien zu bieten“, sagt Carla Hustedt von der Bertelsmann Stiftung. Organisationen, die KI nutzen wollen, könnten das Modell auch dafür verwenden, Kriterien für die Beschaffung passender KI-Systeme zu definieren.

Risiko-Matrix hilft bei Klassifizierung von KI-Anwendungsfällen

Welche Eigenschaften eines KI-Systems als „ethisch ausreichend“ gelten, ist vom konkreten Anwendungsfall abhängig. Der Einsatz eines KI-Systems zur Verteilung von Gütern dürfte beispielsweise in der Möbellogistik ethisch weniger heikel sein als bei der Belieferung von Krankenhäusern. Die Studie stellt daher mit der „Risiko-Matrix“ einen Ansatz zur Klassifizierung des Anwendungskontexts vor. Während die niedrigste Klasse 0 keine weiteren ethischen Überlegungen erfordert, dürfen für die Klassen 1 bis 3 nur KI-Systeme eingesetzt werden, die das obige KI-Ethik-Label tragen und innerhalb dieses Labels bestimmte Mindestanforderungen erfüllen. Die Einstufung in Klasse 0, 1, 2 oder 3 berücksichtigt einerseits die Intensität des potenziellen Schadens, beispielsweise das Ausmaß der Verletzung von individuellen Grundrechten, die Anzahl der betroffenen Personen oder mögliche negative Auswirkungen auf die Gesellschaft als Ganzes, und andererseits die Abhängigkeit der betroffenen Personen bzw. deren Möglichkeit, sich einer KI-Entscheidung zu entziehen, ein anderes System wählen oder eine bestehende Entscheidung hinterfragen zu können.

Die Studie „From principles to practice – an interdisciplinary framework to operationalise AI ethics“ entstand unter der Federführung von VDE und Bertelsmann Stiftung in der „AI Ethics Impact Group“ und kann kostenlos unter www.vde.com/presse heruntergeladen werden.

Redaktion QZ
qz <AT> hanser.de

VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V.

Weiterführende Information
DNV GL Business Assurance [Anzeige]

Kostenloser Download

  • 5 Schritte zu einem nachhaltigen Prozessmanagement

  • Prozessreifegrad Assessments

  • Self-Assessment BPM

Jetzt kostenlos downloaden!