1.1 - Explainable AI – Grundlegende Konzepte und Anwendungen
- Event
- 17. Dresdner Sensor-Symposium 2024
2024-11-25 - 2024-11-27
Dresden - Band
- Vortrag
- Chapter
- 1. Vertrauenswürdige KI
- Author(s)
- N. Burkart - Fraunhofer IOSB,Karlsruhe/D
- Pages
- 13 - 16
- DOI
- 10.5162/17dss2024/1.1
- ISBN
- 978-3-910600-04-1
- Price
- free
Abstract
In den letzten Jahren hat Künstliche Intelligenz (KI) erhebliche Fortschritte gemacht und sich in zahlreichen Anwendungsbereichen als unverzichtbares Werkzeug etabliert. Insbesondere maschinelle Lern-verfahren, wie tiefe neuronale Netze, zeichnen sich durch ihre Fähigkeit aus, aus großen Datenmengen komplexe Muster zu erkennen und präzise Vorhersagen zu treffen. Diese Modelle finden Anwendung in unterschiedlichen Bereichen wie dem Gesundheitswesen, der Finanzindustrie, der industriellen Produktion und dem autonomen Fahren. Trotz ihrer bemerkenswerten Leistungsfähigkeit stoßen diese sogenannten „Black-Box-Modelle“ auf ein zentrales Hindernis: Ihre Entscheidungsfindung bleibt für Menschen weitgehend undurchsichtig. Diese fehlende Nachvollziehbarkeit birgt nicht nur Herausforderungen in der Akzeptanz und im Vertrauen, sondern stellt auch regulatorische und ethische Anforderungen in Frage. Vor diesem Hintergrund hat das Forschungsfeld der erklärbaren KI (Explainable Artificial Intelligence, XAI) zunehmend an Bedeutung gewonnen. XAI beschäftigt sich mit der Entwicklung von Methoden und Techniken, die darauf abzielen, die Entscheidungsprozesse von KI-Systemen für Menschen verständlich zu machen. Ziel ist es, den „Black-Box“-Charakter der Modelle zu durchbrechen und sie so zu gestalten, dass ihre Vorhersagen und Entscheidungen für Anwender nachvollziehbar und überprüfbar sind. Dies ist besonders in sicherheitskritischen und regulatorisch sensiblen Bereichen wie der Medizin, der Automobilindustrie und der Finanzbranche unerlässlich, wo die Auswirkungen von Entscheidungen weitreichend und potenziell lebensverändernd sein können. Ein zentrales Anliegen von XAI ist die Schaffung von Transparenz, die nicht nur das Vertrauen in KI-Systeme stärkt, sondern auch die Möglichkeit eröffnet, Schwachstellen und Fehlentscheidungen zu identifizieren. Dies ist entscheidend, um Diskriminierung zu vermeiden, ethische Standards einzuhalten und eine robuste Anwendung in der Praxis zu gewährleisten. Darüber hinaus kann die erklärbare KI dazu beitragen, die Effizienz und Präzision von Prozessen zu steigern, indem sie die Zusammenarbeit zwischen Menschen und Maschinen verbessert. Gleichzeitig steht XAI vor einer Reihe von Herausforderungen. Dazu gehören die Balance zwischen Erklärbarkeit und Modellgenauigkeit, die Komplexität moderner KI-Algorithmen sowie die Entwicklung all-gemeingültiger Methoden, die über verschiedene Anwendungsbereiche hinweg einsetzbar sind. Auch der wachsende regulatorische Druck, wie durch den AI-Act, verstärkt die Notwendigkeit, erklärbare Modelle zu entwickeln. Der AI Act der EU zielt darauf ab, KI-Systeme sicher, transparent und vertrauenswürdig zu gestalten, wobei Erklärbarkeit (Explainability) eine zentrale Rolle spielt. Besonders für Hochrisiko-KI, wie in der Medizin oder Strafverfolgung, schreibt der AI Act vor, dass Entscheidungsprozesse für Nutzer nachvollziehbar gemacht werden müssen. Dies stärkt nicht nur das Vertrauen der Nutzer, sondern ermöglicht auch, Entscheidungen anzufechten und Diskriminierung zu vermeiden. Unternehmen stehen vor der Herausforderung, die Balance zwischen Modellleistung und Erklärbarkeit zu finden, insbesondere bei komplexen Modellen wie neuronalen Netzen. Gleichzeitig soll der AI-Act die Entwicklung neuer XAI-Technologien fördern, die Transparenz und Einhaltung regulatorischer Vorgaben gewährleisten und so einen Wettbewerbs-vorteil schaffen können. Erklärbare KI ist somit nicht nur eine technische Notwendigkeit, sondern kann auch ein Schlüssel zur Umsetzung der Anforderungen des AI Act und zur Vertrauensbildung in der europäischen KI-Landschaft sein.