Erklärbare KI: Evaluation von Erklärbarkeitsverfahren in der Anwendung

Ausgangssituation

In vielen Anwendungsfällen bietet der Einsatz von KI-Verfahren ein enormes Potenzial. Allerdings ist eine hohe Vorhersagegenauigkeit alleine oftmals nicht ausreichend, etwa beim Einsatz von KI-Modellen im Produktionsprozess von Arzneimitteln. Hier sollten die eingesetzten KI-Modelle bestenfalls nachvollziehbar sein. Dieses grundsätzliche Problem besteht in viele Bereichen der Pharmaindustrie und anderen stark regulierten Branchen. Eine Lösung hierfür bieten Verfahren der erklärbaren KI (XAI), mit deren Hilfe KI-Modelle und deren Entscheidungen interpretiert werden können.

Bisher sind diese Ansätze jedoch noch sehr forschungsnah. Das bedeutet, dass XAI-Techniken oftmals lediglich an öffentlich verfügbaren Benchmark Datensätzen erprobt werden. Zudem sind bisher wenige Techniken entwickelt worden, mit deren Hilfe die XAI-Verfahren selbst sowie die genierten Erklärungen evaluiert werden können. Alles in allem fehlen Praxisbeispiele und Ansätze zur Evaluation der Eignung von XAI-Verfahren in realen Use Cases.

Innovation

Genau hier setzt das Vorhaben an. Im Projekt steht die methodische Begleitung des Einsatzes von XAI-Verfahren in der Pharmaindustrie im Fokus. Dabei soll einerseits die Erklärung von KI-Modellen und Modellentscheidungen betrachtet werden. Darüber hinaus wird ein weiteres Augenmerk auf der Bewertung der Sicherheit von Modellentscheidungen liegen.

Basierend auf diesem kombinierten Ansatz sollen schlussendlich Best Practices zur Erklärung und Absicherung von KI-Modellen in der Pharmaindustrie abgeleitet werden.

Technische Umsetzung

In einem ersten Schritt sollen, gemeinsam mit Anwendern aus der Pharmaindustrie, Limitierungen beim Einsatz von KI in der Arzneimittelproduktion erarbeitet werden. Darauf aufbauend können dann geeignete Absicherungsmethoden, welche XAI-Verfahren nutzen, diskutiert werden. Anschließend werden, für spezifische Use Cases, Anforderungen an die Absicherungsmethoden sowie Evaluationskriterien für selbige definiert. Im nächsten Schritt kann ein Vorgehensmodell zur Evaluation der Eignung von XAI-Verfahren für den Einsatz in realen Use Cases erarbeitet werden. Im letzten Schritt erfolgt schlussendlich der Vergleich und die Bewertung unterschiedlicher XAI-Verfahren sowie des Vorgehensmodells.