Der Transformer-Zoo

Transformator-basierte Sprachmodelle stehen im Mittelpunkt der jüngsten Fortschritte in der natürlichen Sprachverarbeitung (NLP). Neben den ursprünglichen Basis-Sprachmodellen werden dort zunehmend auch solche für andere Sprachen und feingetunte Modelle für spezielle Aufgaben angeboten. Dadurch ist aus dieser ursprünglich auf Transfer-Learning basierenden Technologie ein ganzes Ökosystem entstanden – woraus sich völlig neue Anwendungsbereiche ergeben.

Der Vortrag gibt einen Überblick der verschiedenen Modelle und darüber, wie diese für eigene Zwecke nach trainiert werden können. Dabei werden wir Modelle von Huggingface nutzen und in Jupyter-Notebooks auf realistische Problemstellungen loslassen. Oft ist eine erfolgreiche Klassifizierung nur der erste Schritt, um andere Aufgaben des maschinellen Lernens wie Trendvorhersagen usw. zu erleichtern.

Speaker

 

Oliver Zeigermann
Oliver Zeigermann ist Softwareentwickler und -Architekt aus Hamburg und hat seit mehr als drei Jahrzehnten Erfahrungen in der Softwareentwicklung gesammelt. Seine Spezialgebiete sind Frontend-Entwicklung und maschinelles Lernen. Er ist Autor mehrerer Videokurse und Fachbücher.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden