Möchtet ihr mit eurem Team teilnehmen? Ab drei Personen profitiert ihr von unseren Gruppenrabatten! Direkt im Shop buchen!

Eigene Sprachmodelle nutzen und feintunen


Dieser Workshop findet am 24. März 2026 online statt.


ChatGPT, Gemini und Claude sind die bekanntesten generativen Sprachmodelle. Alle Daten werden dabei von den Anbietern in den jeweiligen Clouds verarbeitet.

In vielen Unternehmensanwendungen möchte man das aus Datensicherheitsgründen aber gerne vermeiden und Modelle spezifisch anpassen, z.B. domänenspezifisches Vokabular abzudecken. Alle offenen Sprachmodelle lassen dazu ein sogenanntes Feintuning zu. Das ist sehr viel effizienter als ein Training und kann auch auf Consumer GPUs durchgeführt werden. Feintuning funktioniert nicht nur für generative Sprachmodelle, sondern auch für Embedding- oder Klassifikationsmodelle.

Nach einem kurzen Abriss der Theorie widmen wir uns dem Feintuning eigener Modelle und probieren dann aus, ob sich dadurch Verbesserungen ergeben. Außerdem betrachten wir Alternativszenarien und beleuchten, wann Feintuning überhaupt sinnvoll ist und wann nicht.

Zielgruppe: Fortgeschrittene

Vorkenntnisse

  • Alle Aufgaben werden mit Python durchgeführt. Es sind keine schwierigen Programme, aber gewisse Grundlagen in Python sind sehr hilfreich.

Lernziele

  • Funktionsweise von Sprachmodellen
  • Unterschied zwischen Embedding- und generativen Modellen
  • Performance und Speicheranforderungen von LLMs beurteilen können
  • Grundlagen der Quantisierung
  • Verständnis des Feinetunings (LoRA, peft)

Agenda

  • Kurze Vorstellung und Zieldefinition
  • Recap große Sprachmodelle (BERT und GPT)
  • BERT-Modelle nutzen und finetunen
  • GPT-Modelle nutzen (Quantisierung, Prompting, RAG)
  • GPT-Modelle finetunen
  • Zusammenfassung und Feedback

     

Technische Anforderungen

  • Die Teilnehmenden sollten über eine Python-Installation (sinnvollerweise mit Jupyter) verfügen oder auf Google Colab zugreifen können. Wir werden auf jeden Fall GPUs benötigen, entweder das ist lokal vorhanden, kann über Colab genutzt werden oder diejenigen, die das nicht haben, können bei bestimmten Aufgaben nur zuschauen.
  • Jupyter-Notebooks und Python-Konfiguration wird über GitHub zur Verfügung gestellt.
  • Für das eigene Ausführen der Notebooks ist eine GPU mit mindestens 16 GB RAM notwendig
  • Speaker

     

    Christian Winkler
    Christian Winkler beschäftigt sich seit vielen Jahre mit künstlicher Intelligenz, speziell in der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich auf die Optimierung von User Experience mithilfe moderner Verfahren. Er forscht und publiziert zu Natural Language Processing und ist regelmäßig Sprecher auf Machine Learning-Konferenzen.