Im Modul befassen wir uns mit den architektonischen Grundlagen von Transformer-Modellen und ihrer Sprachverarbeitung. Wir untersuchen, welche Einsichten sich daraus für das Sprachverständnis dieser Modelle ableiten lassen. Darauf aufbauend leiten wir, gestützt auf kompatible sprachtheoretische Ansätze, Prinzipien des Promptings ab. Ziel ist es, den Studierenden Kompetenzen für effektives Prompting zu vermitteln und ein tieferes Verständnis für die Funktionsweise und den Output von LLMs und generativer KI zu entwickeln, um diese gezielt für wissenschaftliche und andere Zwecke einzusetzen.
- Lehrperson: Marc Heimann
- Lehrperson: Pascal Quindeau