Du möchtest mit Deinem Team teilnehmen? Ab drei Personen gibt es im Shop automatisch einen Gruppenrabatt.
Wir steigen bis zu einem gewissen Grad in die Themen Natural Language Processing, Tokenization, Transformer, Language Models, Dense Passage Retrieval, Extractive Question Answering und Semantic Parsing ein. Es schadet daher nicht, schon einmal etwas von neuronalen Netzen, Supervised Learning, Semi-Supervised Learning, Transformer, Attention und Sprachmodellen gehört zu haben.
Ein paar Modelle von huggingface runterladen und los geht’s? So einfach war es in unserem Projekt definitiv nicht. Wie wir vorgegangen sind, welche Stolpersteine wir gefunden und wie wir diese überwunden haben, zeigen wir in unserem Vortrag.
Im Idealfall profitieren die Zuhörenden von unseren Erfahrungen und sind dann für ihre eigenen zukünftigen NLP-Projekte besser gewappnet und können manche Herausforderungen im Vorfeld besser einkalkulieren. Außerdem geben wir Einblicke in unsere technischen Lösungsansätze.
Clemens Gutknecht ist ein „Deep-Learning-Native“. Nachdem er sich zunächst intensiv mit Computer Vision befasst hatte, zogen ihn schließlich die Möglichkeiten der neuen Transformer-Architektur im Bereich Natural Language Processing in ihren Bann. Diese Leidenschaft passte perfekt zum Forschungsprojekt XNEXT bei BettercallPaul.
Leon Marius Schröder ist Projektmitarbeiter im Institute for Applied Artificial Intelligence (IAAI) an der Hochschule der Medien Stuttgart. Er befasst sich seit etwa elf Jahren mit künstlichen neuronalen Netzen und war bereits in vielen Forschungsprojekten tätig.
Leon Lukas arbeitet als IT-Ingenieur im InnovationLab von it@M, dem IT-Eigenbetrieb der Landeshauptstadt München. Dieses kümmert sich um die prototypische Umsetzung innovativer IT-Projekte für die Bürger und Verwaltung der Landeshauptstadt. Leons Fachbereich ist die Entwicklung und der Einsatz von KI-Systemen.
Du möchtest über die Minds Mastering Machines
auf dem Laufenden gehalten werden?