Am 29. Oktober findet der Online-Deep-Dive LLMs im Unternehmen statt

Große Sprachmodelle feintunen


Dieser Workshop findet am 30. Oktober 2025 online statt.



ChatGPT (und die darin verwendeten GPT-4o{1,2,3}) sind die bekanntesten generativen Sprachmodelle. Alle Daten werden von OpenAI in der Cloud verarbeitet.

In vielen Unternehmensanwendungen würde man das aus Datensicherheitsgründen aber gerne vermeiden und Modelle spezifisch anpassen, z.B. domänenspezifisches Vokabular abzudecken. Alle offenen Sprachmodelle lassen dazu ein sogenanntes Feintuning zu. Das ist sehr viel effizienter als ein Training und kann auf Consumer GPUs durchgeführt werden. Feintuning funktioniert nicht nur für generative Sprachmodelle, sondern auch für Embeddings- oder Klassifikationsmodelle.

Nach einem kurzen Abriss der Theorie widmen wir uns dem Feintuning eigener Modelle und probieren dann aus, was diese gelernt haben und wie viel Wissen sie reproduzieren können. Außerdem betrachten wir Alternativszenarien und beleuchten, wann Feintuning überhaupt sinnvoll ist und wann nicht.

Vorkenntnisse

Alle Aufgaben werden mit Python durchgeführt. Es sind keine schwierigen Programme, aber gewisse Grundlagen in Python sind sehr hilfreich.

Lernziele

  • Funktionsweise von Sprachmodellen
  • Unterschied zwischen Embedding- und generativen Modellen
  • Performance und Speicheranforderungen von LLMs beurteilen können
  • Grundlagen der Quantisierung
  • Verständnis des Feinetunings (LoRA, peft)

Agenda

  • Kurze Vorstellung und Zieldefinition
  • Recap große Sprachmodelle (BERT und GPT)
  • BERT-Modelle nutzen und finetunen
  • GPT-Modelle nutzen (Quantisierung, Prompting, RAG)
  • GPT-Modelle finetunen
  • Zusammenfassung und Feedback

     

Technische Anforderungen

Die Teilnehmenden sollten über eine Python-Installation (sinnvollerweise mit Jupyter) verfügen oder auf Google Colab zugreifen können. Wir werden auf jeden Fall GPUs benötigen, entweder das ist lokal vorhanden, kann über Colab genutzt werden oder diejenigen, die das nicht haben, können bei bestimmten Aufgaben nur zuschauen.

Speaker

 

Christian Winkler
Christian Winkler beschäftigt sich seit vielen Jahre mit künstlicher Intelligenz, speziell in der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich auf die Optimierung von User Experience mithilfe moderner Verfahren. Er forscht und publiziert zu Natural Language Processing und ist regelmäßig Sprecher auf Machine Learning-Konferenzen.