Öffentlichkeitsarbeit

Hannovermesse

Als wichtiger Treiber für Industrie 4.0 erfassen Manufacturing Execution Systems (MES) detailliert Prozessabläufe und stellen somit eine wertvolle Quelle zur datengesteuerten Analyse mit Hilfe von KI-Technologien, insbesondere mit Ansätzen des Machine Learning (ML) dar.

KI-basierte Entscheidungshilfen unterstützen Fachexperten bei Beurteilungen im Rahmen ihrer operativen Tätigkeiten, insbesondere wenn diese auf komplexen Informationen und Systemen beruhen. Ein zielgerichteter Einsatz datengetriebener Entscheidungsfindung kann in den produzierenden Gewerben zu signifikanten Produktivitätssteigerungen führen – vorausgesetzt, die Operationalisierung und Einbettung der gewonnenen Erkenntnisse in die Geschäftsprozesse gelingt. Die Integration erfordert einen Change-Management-Prozess, in dem das Vertrauen in die Aktionen, Inferenzmechanismen und Ergebnisse der eingesetzten KI-Systeme aufgebaut werden kann.

Zwar werden KI-Modelle immer präziser, jedoch stellt deren „Black-Box-Charakter“ eine gravierende Hürde für den praktischen Einsatz dar: Sie liefern den Fachleuten bisher kaum Erklärungen über das Zustandekommen von Ergebnissen und Empfehlungen. Für einen reibungslosen Einsatz der KI-Systeme und deren Akzeptanz durch die Fachexperten ist jedoch entscheidend, dass die Ergebnisse nachvollzogen werden können, sie müssen also erklärbar sein. Erklärbarkeit wird als Mittel betrachtet, um das Vertrauen der Nutzer in das Modell zu erhöhen. Erklärbarkeit ist jedoch kein klar umgrenzter Begriff, sondern umfasst viele verschiedene Dimensionen und Ziele. Deren Qualität und Angemessenheit hängt erheblich vom Kontext der Entscheidungssituation und der Benutzermerkmale ab.

Erkenntnisse aus der Kognitionswissenschaft deuten darauf hin, dass die Förderung des Verständnisses interner Mechanismen der ML-Modelle für Data Scientist/Engineers zwar von großer Bedeutung ist, aber mit einer hohen kognitiven Belastung bis hin zur Überforderung einhergeht. Post-hoc-Erklärungsansätze erläutern zwar selten, wie ein Modell zu einer Lösung kommt, jedoch können sie nützliche Information für Anwender und Endbenutzer von ML-Systemen vermitteln.

„XAI 4.0“ demonstriert zahlreiche Post-hoc-Erklärungsansätze von Machine Learning, beispielweise Erklärungen mit lokalen und globalen „surrogate“ Modellen oder fallbezogene, visuelle sowie kontrafaktische Erklärungen für industrielle Anwendungsszenarien, deren Zielgruppe aus Fachexperten besteht.

Vorgestellt werden sowohl Techniken zu modellagnostischen als auch modellspezifischen Erklärungen. Um die Entscheidungen des benutzten Deep-Learning-Systems nachzuvollziehen, wurden unter anderem Hidden Layer Activations bei Deep Neural Networks benutzt.

Weitere Öffentlichkeitsarbeiten

DFKI:

SmartMES, 18.11.2019 – 19.11.2019

       Fachkonferenz für Produktionsleiter,

       Werkverantwortliche und Fertigungs-IT aller Unternehmensgrößen

       Thema der Konferenz:   Optimierung von Fertigungsprozessen

       Vortrag:    „Manufacturing Execution Systems (MES) als Hebel für KI in der Produktion“

       Vortragender:   Prof. Dr. Peter Fettke

 

DFKI:

Bucheintrag:   „Big Data – Anwendung und Nutzungspotenziale in der Produktion“

       Herausgeber:   Marion Steven und Timo Klünder

       Buchkapitel:     Big-Prozess-Analytik für Fertigungsmanagementsysteme (MES)

       Autoren:             Peter Fettke,   Lea Mayer,   Nijat Mehdiyev

FASTEC:

       Poster/Demo:   Mittelstandstagung, 19.-20.  November 2018,   Berlin

FASTEC:

       Vortrag:   Industrie 4.0, 19. Juli 2019,   Firmenjubiläum Taktomat GmbH,   Pöttmess

       Vortragender:   Dr. Karl-Heinz Gerdes

FASTEC:

       Vortrag:   Fachtagung innovativer Werkzeugbau (ViProSim e.V.),
                         05. Dezember 2019,   IHK Detmold

       Vortragender:   Dr. Karl-Heinz Gerdes

Kontakt

Prof. Dr. Peter Fettke | Nijat Mehdiyev
DFKI Forschungsbereich Institut für Wirtschaftsinformatik (IWi)
Peter.Fettke@dfki.de
Nijat.Mehdiyev@dfki.de
Tel.: +49 681 85775 3106

Weitere Informationen: