Erklärbarkeit von Machine Learning: Wie können wir Vertrauen in komplexe Modelle schaffen?

Mit Machine Learning getroffene Entscheidungen sind inhärent schwierig – wenn nicht gar unmöglich – nachzuvollziehen. Die Komplexität einiger der besten Modelle, wie Neuronale Netzwerke, ist genau das, was sie so erfolgreich macht. Aber es macht sie gleichzeitig zu einer Black Box. Das kann problematisch sein, denn Geschäftsführer oder Vorstände werden weniger geneigt sein, einer Entscheidung zu vertrauen und nach ihr zu handeln, wenn sie sie nicht verstehen.

Local Interpretable Model-Agnostic Explanations (LIME) ist ein Versuch, diese komplexen Modelle zumindest teilweise nachvollziehbar zu machen. In diesem Vortrag erkläre ich das Prinzip und zeige Anwendungsbeispiele von LIME.

Vorkenntnisse

Grundkenntnisse Machine Learning & Statistik

Lernziele

* Einblick in Möglichkeit, die komplexe Modelle erklärbar machen
* Vertrauen in Entscheidungen durch Machine Learning schaffen

Speaker

 

Shirin Glander
Shirin Glander ist promovierte Biologin und Data Scientist und verfügt über fundierte Kenntnisse in Statistik und Machine Learning. Neben fachlicher Kompetenz im Bereich Data Science und Machine Learning liegt ihr die Vermittlung von Wissen an ein breiteres Publikum sehr am Herzen. So schreibt sie einen Data Science Blog, hält Webinare (z.B. “Building meaningful machine learning models for disease prediction“) und trägt Artikel zu codecentrics Blog bei. Darüber hinaus organisiert sie das Münster R-User Group Meetup.

Gold-Sponsor

infoteam
Novatec

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden