Prof. Dr. Michael Hahn - Heinz Maier-Leibnitz Preisträger 2026

Computerlinguistik, Universität des Saarlandes, Saarbrücken

Selbst die besten KI-Sprachmodelle (Large Language Models, LLMs) können bei logischen Fragestellungen deutlich danebenliegen. Dann stimmen Rechnungen nicht, Reihenfolgen werden falsch wiedergegeben oder die KI halluziniert und denkt sich falsche Kennzahlen oder Zitate aus. Michael Hahns Arbeiten an der Schnittstelle von Maschinellem Lernen und Computerlinguistik erklären, warum LLMs trotz massiver Fortschritte weiterhin Fehler machen. Er hat eine Forschungsrichtung initiiert, die die Fähigkeiten der neuronalen Netzarchitektur analysiert, auf der alle populären LLMs basieren – der Transformer-Architektur. Er konnte mathematisch beweisen, dass Transformer bei Aufgaben scheitern, in denen jeder Teil der Eingabe für die Ausgabe relevant ist, das heißt, wenn die Änderung eines einzigen Zeichens das korrekte Ergebnis verändern kann. So lassen sich theoretische Einsichten gewinnen, mit denen man die Stärken und Schwächen von LLMs besser vorhersagen kann.