Model Serving: ML-Modelle mit Kubernetes deployen
Dein ML-Modell ist endlich trainiert und bereit zum Ausrollen. Doch wie liefert man es an die Kunden aus? Dieser Vortrag wird Ihnen umfassendes Wissen und praktische Techniken vermitteln, um Machine-Learning-Modelle mit Kubernetes und Argo Workflows bereitzustellen.
Nachdem wir kurz die Vorteile von Kubernetes für das Deployment von ML-Modellen erörtert haben, werden wir die Feinheiten des Model Serving besprechen. Wir werden fünf vielfältige Deployment-Strategien für Ihr ML-Modell diskutieren, sowohl für Online- als auch für Batch-Inferenzen.
Im Bereich der Online-Inferenz werden wir die Vor- und Nachteile von integrierten und eigenständigen Deployments untersuchen. Für die Batch-Inferenz werden wir erörtern, wie wir mit Argo Workflows den Prozess des Model Serving orchestrieren können.
Am Ende des Vortrags werden Sie ein Repertoire aus verschiedenen Deployment-Strategien im Kubernetes-Umfeld zur Verfügung haben, aus dem Sie die optimale Möglichkeit für Ihr ML-Projekt wählen können.
Vorkenntnisse
- Grundlagen von Machine Learning: Verständnis der Basisprinzipien und Algorithmen des Maschinellen Lernens.
- Vertrautheit mit Cloud-Computing: Erfahrung mit Cloud-Diensten und -Architekturen, die für das ML-Deployment verwendet werden können.
- (Optional) Erfahrung mit Kubernetes: Grundlegende Kenntnisse in der Arbeit mit Kubernetes-Clustern und der Container-Orchestrierung.
Lernziele
- Verständnis für die Bedeutung und die Herausforderungen bei der Bereitstellung von ML-Modellen
- Kennenlernen von verschiedenen Strategien für das Model Serving
- Untersuchung der Vor- und Nachteile von integrierten und eigenständigen Bereitstellungen
- Vorteile von Argo Workflows für Batch-Inferenz
- Einblick in das Ausführen von ML-Modellen in verschiedenen Umgebungen