Von Gut zu Großartig: LLM-basierte Retrieval-Systeme auf ein neues Niveau heben
In diesem Vortrag geht es um das Feintuning von Retrieval-Augmented-Generation-Systemen (RAG-Systemen), mit deren Hilfe große Dokumentdatensätze semantisch durchsucht werden können.
Ich zeige, wie wir durch systematische Evaluation von Dokumentdatensätzen die optimalen Konfigurationen von Schlüsselparametern wie Chunk-Größe und dem Top-K-Wert lernen können. Unser Ansatz nutzt in der Cloud bereitgestellte Open-Source-Sprachmodelle (LLMs) sowie spezielle Embedding-Modelle, die auf die Verarbeitung von deutschsprachigen Dokumenten optimiert sind.
Ich beende den Vortrag mit Beispielen von Einsatzmöglichkeiten und einem Ausblick auf angehende Trends auf dem Gebiet des Feintunings für NLP-Anwendungen.
Lernziele
- Übersicht über aktuelle Architekturen von RAG-Systemen
- Übersicht Implementierungen mit Open-Source-Modellen und Bibliotheken
- Übersicht über sensible Parameter und das Feintuning von RAG-Systemen
- Übersicht über die Fähigkeiten von Open-Source-basierten LLMs und Embedding-Modellen