Prompting und Systemprompts: Was AI-Engineers wirklich wissen müssen
Prompts sind das Interface zu großen Sprachmodellen. Zunächst entwickeln wir ein mentales Modell, das dabei hilft zu entscheiden, wann Prompt-Engineering sinnvoll ist und wann nicht. Dies veranschaulichen wir anhand von Beispielen, in denen Prompting entweder kaum oder einen erheblichen Unterschied macht. Dabei wird deutlich, wie wichtig die Kontrolle über den gegebenen Kontext ist, um die Genauigkeit der Antworten zu erhöhen und Halluzinationen zu vermeiden.
Wir erklären die technischen Grundlagen, insbesondere die unterschiedlichen Arten von Prompts, und geben Tipps, wie Nutzer effektivere Prompts erstellen können. AI-Engineers stehen vor anderen Herausforderungen als LLM-User: Sie arbeiten oft mit zahlreichen hoch spezialisierten Prompts in ihren Anwendungen. Wie solche Prompts schnell entwickelt und optimiert werden können, demonstrieren wir in einer Live-Demo. Abgerundet wird der Vortrag durch Hinweise auf aktuelles Tooling und bewährte Praktiken im Bereich Prompt-Engineering.
Dieser Vortrag richtet sich an KI-Entwickler, die LLMs effizient nutzen und die Leistung ihrer Systeme maximieren möchten.