Performanz und Skalierbarkeit mit optimierten KI-Bibliotheken

Algorithmen der Künstlichen Intelligenz lassen sich auf verschiedenen Plattformen ausführen. Anhand von Intels optimierten Bibliotheken wird gezeigt wie Methoden des klassischen Machine Learning und des Deep Learning vom Laptop bis hin zum Supercomputer skaliert werden können. Dabei wird ein besonderes Augenmerk auf die Performanz gelegt.

Bei klassischen Machine-Learning-Beispielen wie dem K-Means Clustering wird gezeigt, wie das weit verbreitete Python-SciKit-Learn-Paket von der Data Analytics and Acceleration Library (DAAL) profitieren kann. Bei Deep-Learning-Beispielen kommen die Math Kernel Library for Deep Neural Networks (MKL-DNN) sowie die Machine Learning Scaling Library (MLSL) unterhalb von TensorFlow zum Einsatz. Mittels des OpenVINO-Toolkits wird anschließend die Inference auf verschiedenen Intel-Architekturen gezeigt.

Vorkenntnisse

Grundkenntnisse in den Bereichen Machine Learnung und Deep Learning sowie Python sind erforderlich. Kenntnisse von Mikroprozessor-Architekturen sind hilfreich, aber nicht zwingend erforderlich.

Lernziele

Der bewusste Umhang mit optimierten Bibliotheken als Bestandteil von Machine-Learning-Frameworks sowie Kenntnisse über die Skalierbarkeit von Machine Learning mit großen Datenmengen.

 

Speaker

 

Michael Steyer
Michael Steyer arbeitet als Technical Consulting Engineer innerhalb der Core and Visual Computing Group bei der Intel Deutschland GmbH in München. Seine Themenschwerpunkte liegen in den Bereichen des Hochleistungsrechnen und der Künstlichen Intelligenz.

Gold-Sponsor

Novatec

Silber-Sponsoren

ETECTURE
inovex
inovex
HO Computer
Intel
Phytec

Bronze-Sponsoren

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden