Als wichtiger Treiber für Industrie 4.0 erfassen Manufacturing Execution Systems (MES) detailliert Prozessabläufe und stellen somit eine wertvolle Quelle zur datengesteuerten Analyse mit Hilfe von KI-Technologien, insbesondere mit Ansätzen des Machine Learning (ML) dar.
KI-basierte Entscheidungshilfen unterstützen Fachexperten bei Beurteilungen im Rahmen ihrer operativen Tätigkeiten, insbesondere wenn diese auf komplexen Informationen und Systemen beruhen. Ein zielgerichteter Einsatz datengetriebener Entscheidungsfindung kann in den produzierenden Gewerben zu signifikanten Produktivitätssteigerungen führen – vorausgesetzt, die Operationalisierung und Einbettung der gewonnenen Erkenntnisse in die Geschäftsprozesse gelingt. Die Integration erfordert einen Change-Management-Prozess, in dem das Vertrauen in die Aktionen, Inferenzmechanismen und Ergebnisse der eingesetzten KI-Systeme aufgebaut werden kann.
Zwar werden KI-Modelle immer präziser, jedoch stellt deren „Black-Box-Charakter“ eine gravierende Hürde für den praktischen Einsatz dar: Sie liefern den Fachleuten bisher kaum Erklärungen über das Zustandekommen von Ergebnissen und Empfehlungen. Für einen reibungslosen Einsatz der KI-Systeme und deren Akzeptanz durch die Fachexperten ist jedoch entscheidend, dass die Ergebnisse nachvollzogen werden können, sie müssen also erklärbar sein. Erklärbarkeit wird als Mittel betrachtet, um das Vertrauen der Nutzer in das Modell zu erhöhen. Erklärbarkeit ist jedoch kein klar umgrenzter Begriff, sondern umfasst viele verschiedene Dimensionen und Ziele. Deren Qualität und Angemessenheit hängt erheblich vom Kontext der Entscheidungssituation und der Benutzermerkmale ab.
Erkenntnisse aus der Kognitionswissenschaft deuten darauf hin, dass die Förderung des Verständnisses interner Mechanismen der ML-Modelle für Data Scientist/Engineers zwar von großer Bedeutung ist, aber mit einer hohen kognitiven Belastung bis hin zur Überforderung einhergeht. Post-hoc-Erklärungsansätze erläutern zwar selten, wie ein Modell zu einer Lösung kommt, jedoch können sie nützliche Information für Anwender und Endbenutzer von ML-Systemen vermitteln.
„XAI 4.0“ demonstriert zahlreiche Post-hoc-Erklärungsansätze von Machine Learning, beispielweise Erklärungen mit lokalen und globalen „surrogate“ Modellen oder fallbezogene, visuelle sowie kontrafaktische Erklärungen für industrielle Anwendungsszenarien, deren Zielgruppe aus Fachexperten besteht.
Vorgestellt werden sowohl Techniken zu modellagnostischen als auch modellspezifischen Erklärungen. Um die Entscheidungen des benutzten Deep-Learning-Systems nachzuvollziehen, wurden unter anderem Hidden Layer Activations bei Deep Neural Networks benutzt.