Eigene Sprachmodelle nutzen und feintunen
Dieser Workshop findet am 24. März 2026 online statt.
ChatGPT, Gemini und Claude sind die bekanntesten generativen Sprachmodelle. Alle Daten werden dabei von den Anbietern in den jeweiligen Clouds verarbeitet.
In vielen Unternehmensanwendungen möchte man das aus Datensicherheitsgründen aber gerne vermeiden und Modelle spezifisch anpassen, z.B. domänenspezifisches Vokabular abzudecken. Alle offenen Sprachmodelle lassen dazu ein sogenanntes Feintuning zu. Das ist sehr viel effizienter als ein Training und kann auch auf Consumer GPUs durchgeführt werden. Feintuning funktioniert nicht nur für generative Sprachmodelle, sondern auch für Embedding- oder Klassifikationsmodelle.
Nach einem kurzen Abriss der Theorie widmen wir uns dem Feintuning eigener Modelle und probieren dann aus, ob sich dadurch Verbesserungen ergeben. Außerdem betrachten wir Alternativszenarien und beleuchten, wann Feintuning überhaupt sinnvoll ist und wann nicht.
Zielgruppe: Fortgeschrittene
Vorkenntnisse
- Alle Aufgaben werden mit Python durchgeführt. Es sind keine schwierigen Programme, aber gewisse Grundlagen in Python sind sehr hilfreich.
Lernziele
- Funktionsweise von Sprachmodellen
- Unterschied zwischen Embedding- und generativen Modellen
- Performance und Speicheranforderungen von LLMs beurteilen können
- Grundlagen der Quantisierung
- Verständnis des Feinetunings (LoRA, peft)