Möchten Sie mit Ihrem Team teilnehmen? Ab drei Personen profitieren Sie von unseren Gruppenrabatten! Direkt im Shop buchen!

Interpretierbarkeit von ML-Modellen

Interpretierbarkeit von ML-Modellen hat die Zielsetzung, die Ursachen einer Prognose offenzulegen und eine daraus abgeleitete Entscheidung für einen Menschen nachvollziehbar zu erklären. Durch die Nachvollziehbarkeit von Prognosen lässt sich beispielsweise sicherstellen, dass deren Herleitung konsistent zum Domänenwissen eines Experten ist. Auch ein unfairer Bias lässt sich durch die Erklärung aussagekräftiger Beispiele identifizieren.

Prognosemodelle lassen sich grob in intrinsisch interpretierbare Modelle und nicht-interpretierbare (auch Blackbox-) Modelle unterscheiden. Intrinsisch interpretierbare Modelle sind dafür bekannt, dass sie für einen Menschen leicht nachvollziehbar sind. Ein typisches Beispiel für ein solches Modell ist der Entscheidungsbaum, dessen regelbasierter Entscheidungsprozess intuitiv und leicht zugänglich ist. Im Gegensatz dazu gelten Neuronale Netze als Blackbox-Modelle, deren Prognosen durch die komplexe Netzstruktur schwer nachvollziehbar sind.

In diesem Talk möchte ich das Konzept von Interpretierbarkeit im Kontext von Machine Learning erläutern und gängige Verfahren zur Interpretation von Modellen vorstellen. Besonderen Fokus werde ich dabei auf modellunabhängige Verfahren legen, die sich auch auf prognosestarke Blackbox-Modelle anwenden lassen.

Vorkenntnisse

* Grundlegende Kenntnisse in Entwicklung und Evaluation von statistischen bzw. Machine-Learning-Modellen (Prototyping)
* Optiona: das kostenlose E-Book Interpretable Machine Learning
A Guide for Making Black Box Models Explainable
von Christoph Molnar

Lernziele

* Grundlegendes Verständnis der Interpretierbarkeit im Kontext von Machine Learning
* Überblick und Verständnis gängiger Verfahren zur Interpretation von ML-Modellen

Speaker

 

Marcel Spitzer
Marcel Spitzer beschäftigt sich als Big Data Scientist mit der Entwicklung und operativen Nutzung von Machine-Learning-Modellen sowie der Implementierung von Batch- und Streaming-Anwendungen auf Basis von Hadoop und Spark. Er studierte Wirtschaftsmathematik (B.Sc.) und Wirtschaftsinformatik (M.Sc.) mit einem besonderem Fokus auf Numerischer Mathematik und Operations Research.

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden