Explainable Feature Importance: Interpretierbare maschinelles Lernen durch spieltheoretische Analyse von Einflussgr??en und Interaktionseffekten

?berblick

Methoden des maschinellen Lernens (ML) unterstützen die Suche nach Mustern in Daten und Zusammenh?ngen zwischen Variablen, z.B. in komplexen bio-medizinischen Systemen. Auf diese Weise k?nnen sie neue Einsichten vermitteln und Entscheidungen in Handlungs?feldern wie der medizinischen Diagnostik verbessern. Neben der Güte der aus den Daten gelernten Modelle bildet das Vertrauen menschlicher Experten in diese Modelle eine wichtige Voraussetzung für die Nützlichkeit und Anwendbarkeit von ML. Dies setzt ein gewisses Ma? an Transparenz der Modelle voraus, vor al?lem im Hinblick auf die Bedeutung von und die Interaktion zwischen einzelnen Einflussgr??en. In diesem Projektvorhaben schlagen wir einen spieltheoretischen Ansatz zur Modellierung und Dekomposition von Abh?ngigkeiten h?herer Ordnung vor, d.h. Abh?ngigkeiten zwischen Teilmengen von Variablen. Auf dieser Grundlage lassen sich theoretisch fundierte Ma?e für die Wichtigkeit einzelner Einflussgr??en und die St?rke der Interaktion zwischen diesen Gr??en bestimmen. Im Rahmen des Projektes entwickeln wir nicht nur die theoretischen und konzeptionellen Grundlagen dieses Ansatzes, sondern arbeiten auch an einer effizienten algorithmischen Umsetzung. Zur Verbesserung von Verst?ndnis und Akzeptanz entwickeln wir zudem einen interaktiven Ansatz zur Explora?tion von Abh?ngigkeiten in hochdimensionalen Datenr?umen.

Key Facts

Laufzeit:
01/2021 - 12/2024
Gef?rdert durch:
MKW NRW

Detailinformationen

Projektleitung

contact-box image

Prof. Dr. Reinhold H?b-Umbach

Nachrichtentechnik (NT) / Heinz Nixdorf Institut

Zur Person