Transparentes Creditscoring: Entscheidungen mit Tragweite besser erklären
Nicht jedes Modell muss für Einzelfälle gut erklärbar sein - ein unpassendes Werbebanner mag zwar nerven, es wird allerdings keinen weitreichenden Einfluss auf den Empfänger haben. Anders ist dies z.B. bei Prognosen bezüglich des zukünftigen Zahlungsverhaltens eines potentiellen Bankkunden.
Einerseits möchte die Bank wissen, welches Risiko sie mit dem Kunden eingeht, und entsprechend sinnvolle Konditionen finden. Auf der anderen Seite möchte der Bankkunde fair beurteilt werden, um einen benötigten Kredit zu erhalten. Eine falsche Entscheidung kann hier für beide Seiten, insbesondere für den Kreditnehmer, ernstzunehmende Folgen haben.
In diesem Vortrag wird am Beispiel Creditscoring gezeigt, wie Modelle und damit erstellte Prognosen besser erklärt und in Kontext gesetzt werden können, um schlussendlich bessere und transparente Entscheidungen zu treffen. Zu diesem Zwecke werden alternative Modell-Ansätze wie z.B. Probabilistic Programming, aber auch Modell-unabhängige Verfahren wie z.B. LIME vorgestellt.
Vorkenntnisse
Grundlagen des Machine Learning
Lernziele
* Sensibilität für die Notwendigkeit von Modell-Interpretierbarkeit und -Erklärbarkeit schaffen
* Techniken kennenlernen um bestehende Modell Pipelines erklärbarer zu machen