Transparentes Creditscoring: Entscheidungen mit Tragweite besser erklären

Nicht jedes Modell muss für Einzelfälle gut erklärbar sein - ein unpassendes Werbebanner mag zwar nerven, es wird allerdings keinen weitreichenden Einfluss auf den Empfänger haben. Anders ist dies z.B. bei Prognosen bezüglich des zukünftigen Zahlungsverhaltens eines potentiellen Bankkunden.

Einerseits möchte die Bank wissen, welches Risiko sie mit dem Kunden eingeht, und entsprechend sinnvolle Konditionen finden. Auf der anderen Seite möchte der Bankkunde fair beurteilt werden, um einen benötigten Kredit zu erhalten. Eine falsche Entscheidung kann hier für beide Seiten, insbesondere für den Kreditnehmer, ernstzunehmende Folgen haben.

In diesem Vortrag wird am Beispiel Creditscoring gezeigt, wie Modelle und damit erstellte Prognosen besser erklärt und in Kontext gesetzt werden können, um schlussendlich bessere und transparente Entscheidungen zu treffen. Zu diesem Zwecke werden alternative Modell-Ansätze wie z.B. Probabilistic Programming, aber auch Modell-unabhängige Verfahren wie z.B. LIME vorgestellt.

Vorkenntnisse

Grundlagen des Machine Learning

Lernziele

* Sensibilität für die Notwendigkeit von Modell-Interpretierbarkeit und -Erklärbarkeit schaffen
* Techniken kennenlernen um bestehende Modell Pipelines erklärbarer zu machen

 

Speaker

 

Florian Müller
Florian Müller ist Wirtschaftsinformatiker und arbeitet als Senior Data Scientist/Engineer in Hamburg. Er beschäftigt sich mit der Anwendung von Machine-Learning-Verfahren im wirtschaftlichen Kontext, ihrem Deployment in produktiven Umgebungen und dem damit verbundenen Monitoring und Interpretieren der laufenden Modelle.

Gold-Sponsor

Novatec

Silber-Sponsoren

ETECTURE
inovex
inovex
HO Computer
Intel
Phytec

Bronze-Sponsoren

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden