Möchten Sie mit Ihrem Team teilnehmen? Ab drei Personen profitieren Sie von unseren Gruppenrabatten! Direkt im Shop buchen!

Large Language Models auf eigenen Daten: Herausforderungen und Lösungen

Large Language Models (LLM) wie Github Copilot, ChatGPT und Co zeigen, wie sich durch NLP-Anwendungen die Interaktion zwischen Mensch und Maschine grundsätzlich und nachhaltig verändern wird. Sie liefern nicht selten nahezu perfekte Antworten auf unterschiedliche Fragen und Aufgaben. Die besonderen Eigenschaften dieser riesigen Modelle stellen Anwendungsentwickler:innen allerdings vor große Herausforderungen.

In diesem Vortrag wird gezeigt, wie man diese Herausforderungen erfolgreich meistert und LLMs mithilfe des Open-Source-Frameworks Haystack einfach auf eigenen Daten anwenden kann.

Vorkenntnisse

Vorkenntnisse im Bereich ML oder NLP sind wünschenswert, aber keine Voraussetzung. Es wird darüber hinaus auch Beispielcode zur Verfügung gestellt, den man ohne tiefe Programmierkenntnisse selbst ausführen kann. Wir lieben es, Code zu teilen :-)

Lernziele

Der Vortrag liefert einen kurzen Überblick über die Rolle von LLMs in aktuellen NLP-Anwendungen und ordnet diese im Vergleich zu kleineren und nicht generativen Modellen ein. Es wird gezeigt, wie man schnell und einfach voll funktionsfähige Prototypen von LLM-basierten NLP-Anwendungen mit Haystack erzeugt, diese evaluiert und bis zur Produktionsreife gelangt.

Speaker

 

Thomas Stadelmann
Thomas Stadelmann ist Senior Software Engineer bei deepset, wo er tagtäglich an professionellen Such-Anwendungen und deren Evaluierung arbeitet. Er unterstützt Kund*innen aus verschiedenen Branchen bei der Erstellung von NLP-Anwendungen für den produktiven Einsatz und findet große Freude daran, die neuesten NLP-Technologien öffentlich zugänglich zu machen.

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden