Prof. Dr. Lucie Flek

Lucie Flek ist Professorin für Data Science und Language Technologies am Institut für Informatik der Universität Bonn. Außerdem forscht Sie am Lamarr-Institut für Maschinelles Lernen und Künstliche Intelligenz und dem Bonn-Aachen International Center for IT (b-it).

zurück

»Soziale Intelligenz sollte nicht bedeuten, dass KI uns besser beeinflusst. Sondern dass sie uns achtsam unterstützt – auf eine verantwortungsvolle und nachvollziehbare Weise, ohne unsere Autonomie zu untergraben.«

KI-Chatbots sind längst unsere täglichen Begleiter – sie schreiben Gedichte, lösen Matheaufgaben und geben Ratschläge. Doch wenn es menschlich wird, stößt die Technik an ihre Grenzen. Warum das so ist, darüber haben wir mit Prof. Lucie Flek gesprochen. Die Leiterin der Gruppe Data Science and Language Technologies am b-it und Area Chair am Lamarr-Institut verfolgt mit ihrem Projekt »LLMpathy« ein ambitioniertes Ziel: Sie will KI-Modellen beibringen, menschliche Gefühle und soziale Dynamiken genauso strukturiert zu lösen wie komplexe Mathematikaufgaben. Dafür wurde der Bonner Informatikerin im September 2025 ein ERC Starting Grant gewährt, mit dem sie eine KI mit sozialer Intelligenz erforschen will.

Prof. Dr. Lucie Flek © Maximilian Waidhas | Universität Bonn
Prof. Dr. Lucie Flek will im Projekt »LLMpathy« eine wissenschaftliche Grundlage dafür schaffen, was Forschende als soziale Intelligenz in der KI bezeichnen.

Prof. Flek, Sie forschen an der Schnittstelle von Informatik, Psychologie und Sozialwissenschaften. Was hat Sie fasziniert daran, Künstliche Intelligenz nicht nur »schlau«, sondern auch »sozial kompetent« machen zu wollen?
Als ich mit Natural Language Processing begonnen habe, ging es vor allem darum, Sätze grammatikalisch korrekt und flüssig zu erzeugen. Aber sehr schnell wurde klar: Sprache ist viel mehr als Grammatik. Die gleiche Aussage kann – je nach Person, Kontext oder Stimmung – völlig unterschiedliche Bedeutungen tragen. Ein Satz ist nie nur Text, sondern immer auch Ausdruck von Sorgen, Erwartungen, Identität. Mich hat fasziniert, dass Maschinen zwar »richtig« formulieren konnten, aber nicht wirklich verstanden haben, was zwischen den Zeilen steht. Dabei ist genau das in vielen Bereichen entscheidend: Ein Arzt muss die unausgesprochenen Ängste eines Patienten erkennen, ein Mentor die Unsicherheit eines Studierenden. Die Frage war für mich: Können wir KI beibringen, nicht nur sprachlich korrekt zu sein – sondern sozial sensibel?

In der Informatik geht es oft um harte Fakten und Logik. Empathie ist für KI keine Gefühlslage, sondern eine funktionale Fähigkeit, soziale Signale zu erkennen und einzuordnen. Wie gelingt es, Maschinen solche selbst für uns Menschen oft schwer greifbaren sozialen Kompetenzen beizubringen?
Empathie ist für eine Maschine natürlich kein Gefühl. Aber sie kann als Fähigkeit modelliert werden: soziale Signale erkennen, interpretieren und angemessen reagieren. Technisch bedeutet das, dass wir menschliches Verhalten strukturieren müssen. Wir arbeiten mit psychologischen Modellen – etwa Persönlichkeitsmerkmalen, Motivationen oder Überzeugungen – und bilden ab, wie diese Einstellungen Verhalten beeinflussen. Die KI lernt also nicht »Mitgefühl« im menschlichen Sinn, sondern sie lernt, welche Denk- und Handlungsmuster typischerweise mit bestimmten Persönlichkeitsprofilen zusammenhängen. Wichtig ist dabei Transparenz: Die Maschine soll nicht nur reagieren, sondern auch erklärbar machen können, warum sie so reagiert. So wird soziale Kompetenz zu einer überprüfbaren, trainierbaren Eigenschaft – nicht zu einer Blackbox.

Herzlichen Glückwunsch zum ERC Starting Grant für Ihr Projekt LLMpathy. Einige Menschen nutzen KI-Chatbots heute schon als Brieffreund oder sogar Psychotherapeuten. Viele Nutzer haben im engen Austausch mit der KI schon heute das Gefühl, die Chatbots würde sie verstehen. Wo liegt für Sie als Forscherin der entscheidende Unterschied zwischen der heutigen Text-Simulation und der ›Socially Intelligent AI‹, die Sie entwickeln wollen?
Viele heutige Systeme wirken verständnisvoll, weil sie typische Formulierungen gelernt haben – etwa »Das tut mir leid« oder »Das ist verständlich«. Aber das ist oft Simulation. Die Modelle erzeugen wahrscheinlich klingende Antworten, ohne wirklich ein Modell der Person gegenüber zu haben. Der Unterschied liegt also im »Warum«. Unsere Vision ist, dass ein System nicht nur eine passende Antwort generiert, sondern intern strukturiert darüber nachdenkt: Welche Überzeugungen hat diese Person? Welche Sorgen könnten hinter der Aussage stehen? Welches langfristige Ziel sollte ich unterstützen? Soziale Intelligenz bedeutet, Verhalten aus einem expliziten Menschenmodell heraus abzuleiten – nicht nur statistisch passende Sätze zu erzeugen.

Wenn KI-Modelle künftig menschliche Perspektiven und soziale Dynamiken wirklich verstehen – welche konkreten Probleme könnte das in unserer Gesellschaft lösen, etwa in der Konfliktbewältigung oder im Gesundheitswesen?
Wenn KI soziale Dynamiken besser versteht, kann sie in vielen sensiblen Bereichen verantwortungsvoller eingesetzt werden. Im Gesundheitswesen könnte sie Patientinnen und Patienten besser begleiten – zum Beispiel erkennen, ob jemand eher sachliche Informationen braucht oder emotionale Unterstützung. In Bildungssystemen könnte sie individueller fördern, ohne einzelne Gruppen zu benachteiligen. Und in Konfliktsituationen – etwa in Online-Debatten – könnte sie helfen, Perspektiven transparent zu machen und Missverständnisse aufzulösen. Aber mindestens genauso wichtig: Sie kann helfen, Manipulation sichtbar zu machen. Wenn wir verstehen, wie Kommunikationssysteme (z. B. Misinformationspreader) auf bestimmte Ängste oder Werte abzielen, können wir solche Strategien auch offenlegen.

Je besser KI auf Menschen eingehen kann, desto wichtiger ist ein verantwortungsvoller Umgang. Wie stellen Sie in Ihrer Forschung sicher, dass solche Systeme nicht manipulativ wirken oder zu viel Vertrauen erzeugen? 
Je personalisierter KI wird, desto größer ist die Verantwortung. In unserem Projekt ist Transparenz zentral. Das System soll erklären können, welche Annahmen über eine Person es verwendet und warum es eine bestimmte Empfehlung gibt. Außerdem arbeiten wir mit klaren ethischen Leitplanken und psychologischer Validierung. Wir untersuchen nicht nur, wie gut ein System »passt«, sondern auch, ob es möglicherweise schädliche Muster verstärkt. Unser Ziel ist nicht, Systeme überzeugender zu machen – sondern nachvollziehbarer. Transparenz ist die wichtigste Schutzmaßnahme gegen Manipulation.

Sie sind Area Chair Natural Language Processing am Lamarr-Institut und lehren am b-it in Bonn. Was macht diesen Standort Bonn und NRW, dieses Ökosystem, für Ihre Forschung besonders? Welche Vorteile bringt es, dass hier Forschung aus Informatik, Psychologie und Sprache eng verzahnt mit direkter Anwendung zusammenkommt?
Bonn und NRW bieten ein außergewöhnlich starkes interdisziplinäres Umfeld. Am Lamarr-Institut arbeiten Informatik, Mathematik und Ethik eng zusammen. Gleichzeitig haben wir hier hervorragende Psychologie, Linguistik und Sozialwissenschaften direkt vor Ort. Für ein Projekt wie LLMpathy, das Informatik mit menschlichem Verhalten verbindet, ist diese Nähe entscheidend. Es geht nicht nur um Algorithmen, sondern um reale Anwendungen und gesellschaftliche Wirkung. Dieses Zusammenspiel gelingt hier besonders gut. Gleichzeitig haben wir auch die Möglichkeit, gemeinsam mit dem enacom-Zentrum Transfermöglichkeiten zu erkunden, beispielsweise in Richtung personalisierter virtueller Interviewer.

Sie haben internationale Erfahrung gesammelt, von Ihrem Master an der Uni Prag über das CERN bis zu Google. Warum sind gerade Nordrhein-Westfalen und die Universität Bonn der richtige Ort, um die nächste Generation von Sprachmodellen zu entwickeln?
Nordrhein-Westfalen hat in den letzten Jahren ein starkes KI-Ökosystem aufgebaut. Am Lamarr-Institut bündeln wir exzellente Forschung in vertrauenswürdiger, nachhaltiger und transparenter KI. Besonders wichtig ist hier die Expertise im Bereich Open-Source Foundation Models, etwa durch die Arbeiten rund um Teuken und offene Sprachmodelle. Das passt perfekt zu meinem Ansatz: Wenn wir soziale Intelligenz erforschen, brauchen wir Modelle, die transparent und wissenschaftlich zugänglich sind – nicht nur geschlossene Industrieprodukte. Auf Landesebene schafft die KI.NRW-Strategie den Rahmen, um Grundlagenforschung, Anwendungsnähe und Verantwortung zusammenzubringen. Für ein Projekt wie LLMpathy, das technische Innovation mit psychologischer Fundierung und Transparenz verbindet, ist dieses Umfeld ideal: wissenschaftliche Exzellenz, offene Modelle, Transferkompetenz – und eine klare Vision für verantwortungsvolle KI.

Wenn wir fünf Jahre in die Zukunft blicken: Wird mein KI-Assistent am Smartphone dann erkennen, wenn ich gestresst bin, und seine Antworten darauf anpassen? Wie wird sich die soziale Intelligenz von KI in Zukunft verändern?
In fünf Jahren wird Ihr KI-Assistent vermutlich erkennen können, dass Sie gestresst sind. Er wird sensibler auf Ihre Wortwahl reagieren und seine Antworten anpassen. Aber der eigentliche Fortschritt liegt nicht nur in dieser Sensibilität. Der entscheidende Unterschied wird sein, dass solche Systeme transparent arbeiten – dass sie offenlegen, wie sie Sie einschätzen und warum sie etwas empfehlen. Soziale Intelligenz sollte nicht bedeuten, dass KI uns besser beeinflusst. Sondern dass sie uns achtsam unterstützt – auf eine verantwortungsvolle und nachvollziehbare Weise, ohne unsere Autonomie zu untergraben. Meine Vision ist eine KI, die Fürsorge zeigt, ohne bevormundend zu sein. Eine KI, die hilft, und die ihre eigenen Grenzen kennt.

Prof. Dr. Lucie Flek ist Professorin an der Universität Bonn und leitet die Gruppe Data Science and Language Technologies. Ihr Forschungsschwerpunkt ist das Maschinelle Lernen zur Verarbeitung natürlicher Sprache (Natural Language Processing, kurz NLP), einschließlich KI-Robustheit und Sicherheit. Vor ihrer Karriere im Fachgebiet der natürlichen Sprachverarbeitung hat Prof. Flek an der Teilchenphysikforschung am CERN (Europäische Organisation für Kernforschung in Genf) im Bereich der Suche nach Axionen mitgewirkt.