Möchten Sie mit Ihrem Team teilnehmen? Ab drei Personen profitieren Sie von unseren Gruppenrabatten! Direkt im Shop buchen!

Model Serving: ML-Modelle mit Kubernetes deployen

Dein ML-Modell ist endlich trainiert und bereit zum Ausrollen. Doch wie liefert man es an die Kunden aus? Dieser Vortrag wird Ihnen umfassendes Wissen und praktische Techniken vermitteln, um Machine-Learning-Modelle mit Kubernetes und Argo Workflows bereitzustellen.

Nachdem wir kurz die Vorteile von Kubernetes für das Deployment von ML-Modellen erörtert haben, werden wir die Feinheiten des Model Serving besprechen. Wir werden fünf vielfältige Deployment-Strategien für Ihr ML-Modell diskutieren, sowohl für Online- als auch für Batch-Inferenzen.

Im Bereich der Online-Inferenz werden wir die Vor- und Nachteile von integrierten und eigenständigen Deployments untersuchen. Für die Batch-Inferenz werden wir erörtern, wie wir mit Argo Workflows den Prozess des Model Serving orchestrieren können.

Am Ende des Vortrags werden Sie ein Repertoire aus verschiedenen Deployment-Strategien im Kubernetes-Umfeld zur Verfügung haben, aus dem Sie die optimale Möglichkeit für Ihr ML-Projekt wählen können.

Vorkenntnisse

  • Grundlagen von Machine Learning: Verständnis der Basisprinzipien und Algorithmen des Maschinellen Lernens.
  • Vertrautheit mit Cloud-Computing: Erfahrung mit Cloud-Diensten und -Architekturen, die für das ML-Deployment verwendet werden können.
  • (Optional) Erfahrung mit Kubernetes: Grundlegende Kenntnisse in der Arbeit mit Kubernetes-Clustern und der Container-Orchestrierung.

Lernziele

  • Verständnis für die Bedeutung und die Herausforderungen bei der Bereitstellung von ML-Modellen
  • Kennenlernen von verschiedenen Strategien für das Model Serving
  • Untersuchung der Vor- und Nachteile von integrierten und eigenständigen Bereitstellungen
  • Vorteile von Argo Workflows für Batch-Inferenz
  • Einblick in das Ausführen von ML-Modellen in verschiedenen Umgebungen

Speaker

 

Hauke Brammer
Hauke Brammer arbeitet als Senior Software Engineer bei der DeepUp GmbH und hat umfangreiche Erfahrungen in den Bereichen ML, Microservices und Cloud-native Applications gesammelt. Seine Leidenschaft ist es, das Beste aus dem Software-Engineering in die Welt des Machine Learnings zu bringen. In den vergangenen Jahren hat Hauke auf zahlreichen Konferenzen über MLOps und Kotlin gesprochen.

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden