Gemeinsam stark: Boosting für ML-Modelle

Boosting ist eine Technik des maschinellen Lernens, die mehrere schwache Lernmodelle zu einem einzigen starken Modell kombiniert. Dabei muss ein "schwacher Lerner" nur etwas bessere Vorhersagen liefern als zufälliges Raten.

Besonders Adaptive Boosting (kurz "AdaBoost") und Gradient Boosting erfreuen sich seit einigen Jahren wachsender Beliebtheit. Das liegt nicht nur an den Erfolgen dieser Methoden in zahlreichen Machine-Learning-Wettbewerben, sondern auch an der relativen Einfachheit in der Anwendung dieser Werkzeuge.

Dieser Vortrag beleuchtet die grundlegenden Ideen hinter den populärsten Boosting-Algorithmen und demonstriert deren Anwendung anhand konkreter Codebeispiele in Python.

Vorkenntnisse

Grundlegende Kenntnisse im Bereich des Maschinellen Lernen sowie in Python sind von Vorteil.

Lernziele

Die Teilnehmer erhalten ein intuitives Verständnis der grundlegenden Funktionsweise von Boosting-Algorithmen. Gleichzeitig steht die Nutzung gängiger Boosting-Implementierungen, beispielsweise scikit-learn und XGBoost, im Fokus.

 

Speaker

 

Anna Lorenz
Anna Lorenz ist Full Stack Developer und Data Scientist bei ETECTURE. Sie schloss ihr Masterstudium der Technomathematik an der TU Berlin ab und arbeitet seitdem als Softwareentwicklerin. Neben Webtechnologien im Frontend und Backend beschäftigt sie sich mit Machine Learning und Computer Vision.

Gold-Sponsor

Novatec

Silber-Sponsor

inovex

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden