Neural Embeddings in Produktion – Was kann schief gehen?

Neural Embeddings bilden hochdimensionale Daten in weniger Dimensionen ab. Dabei ist es wünschenswert, Semantik in räumliche Nähe zu übersetzen. Das Potenzial dieser Technik ist groß, und erst nach und nach wird klar, welche Anwendungsfälle davon profitieren können.

Dieser Talk wird interessante Anwendungsfälle aufzeigen und untersuchen, was für unerwartete Probleme dabei für Unternehmen entstehen können.

Der erste Teil führt in die Grundlagen von Neural Embeddings anhand von Variational Auto-Encoders und word2vec ein. Diese haben ihre Anwendung vor allem im Bereich Bild und Text. Der zweite Teil beleuchtet die Herausforderung, Embeddings (Bild & Text) in Produktionsumgebung einzusetzen. Dabei berichtet der Referent über seine Erfahrungen im Umgang mit diesen Problemen.

Vorkenntnisse

Die Teilnehmer sollten wissen, was eine Loss Function, Gradient Descent und Backpropagation sind, und Erfahrungen mit dem Aufbau von Neuronalen Netzen haben.

Lernziele

Die Teilnehmer verstehen, was Neural Embeddings sind, wo man sie einsetzt und wie man sie trainiert. Als Bonus sehen wir uns das Ganze in Produktion an.

 

Speaker

 

Oliver Zeigermann
Oliver Zeigermann ist Entwickler, Architekt, Berater und Coach. Oliver hat über Jahrzehnte in vielen unterschiedlichen Sprachen und mit vielen Technologien Software entwickelt. In den letzten Jahren ist er wieder tiefer in den Bereich Machine Learning eingestiegen. Er knüpft damit an sein Studium der Künstlichen Intelligenz in den 90er-Jahren an.

Gold-Sponsor

Novatec

Silber-Sponsoren

ETECTURE
inovex
inovex
HO Computer
Intel
Phytec

Bronze-Sponsoren

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden