Große Sprachmodelle feintunen
Dieser Workshop findet am 30. Oktober 2025 online statt.
ChatGPT (und die darin verwendeten GPT-4o{1,2,3}) sind die bekanntesten generativen Sprachmodelle. Alle Daten werden von OpenAI in der Cloud verarbeitet.
In vielen Unternehmensanwendungen würde man das aus Datensicherheitsgründen aber gerne vermeiden und Modelle spezifisch anpassen, z.B. domänenspezifisches Vokabular abzudecken. Alle offenen Sprachmodelle lassen dazu ein sogenanntes Feintuning zu. Das ist sehr viel effizienter als ein Training und kann auf Consumer GPUs durchgeführt werden. Feintuning funktioniert nicht nur für generative Sprachmodelle, sondern auch für Embeddings- oder Klassifikationsmodelle.
Nach einem kurzen Abriss der Theorie widmen wir uns dem Feintuning eigener Modelle und probieren dann aus, was diese gelernt haben und wie viel Wissen sie reproduzieren können. Außerdem betrachten wir Alternativszenarien und beleuchten, wann Feintuning überhaupt sinnvoll ist und wann nicht.
Vorkenntnisse
Alle Aufgaben werden mit Python durchgeführt. Es sind keine schwierigen Programme, aber gewisse Grundlagen in Python sind sehr hilfreich.
Lernziele
- Funktionsweise von Sprachmodellen
- Unterschied zwischen Embedding- und generativen Modellen
- Performance und Speicheranforderungen von LLMs beurteilen können
- Grundlagen der Quantisierung
- Verständnis des Feinetunings (LoRA, peft)