English Intern
Kommunikationspsychologie und Neue Medien

Projekt „Algorithmische Darstellungsverzerrungen aus Userperspektive: Bewertung, Auswirkungen, Interventionen (ADUBAI)“ startet im März 2025

11.03.2025

Im neuen Forschungsprojekt beschäftigen sich Prof. Markus Appel und Tanja Messingschlager mit Mechanismen und Auswirkungen von stereotypen Darstellungen in KI-generierten Texten und Bildern.

zu sehen sind vier Bilder von Schulklassen, die Kinder auf den Bildern sind größtenteils blond
1: Darstellungen einer Grundschulklasse in Deutschland. (Bilder: links – Midjourney, rechts – Stable Diffusion)

Die zunehmende Verwendung von KI bei der Erstellung von Medieninhalten bringt neue Chancen, aber auch Herausforderungen mit sich. Immer mehr Forschungsergebnisse deuten darauf hin, dass KI-generierte Inhalte bestimmte Gruppen kaum oder gar nicht repräsentieren oder stereotype Darstellungen einer Personengruppe dominieren. Es kommt zu einer algorithmischen Darstellungsverzerrung (Algorithmic Bias).  Lässt man eine KI zum Beispiel Namen von Kindern einer Grundschulklasse generieren, so enthält diesen häufigen Namen wie Felix Wagner oder Sophie Hartmann. Namen wie Dimitri Nowak oder Fatma Yilmaz hingegen sind in der Regel nicht auf dieser Liste zu finden. Dementgegen deuten erste Befunde darauf hin, dass Menschen KI -generierte Inhalte als neutraler und unvoreingenommen wahrnehmen könnten.

Ab dem 1. März forschen Prof. Appel und Mitarbeiterin Tanja Messingschlager zu Erfahrung, Wissen und Bewertung unterschiedlicher Stakeholdergruppen im Hinblick auf Algorithmic Bias.  Ziel ist es auch, psychologische Mechanismen im Umgang mit Algorithmic Bias Texten und Bildern zu untersuchen. Im Laufe der kommenden vier Jahre sollen darüber hinaus Maßnahmen abgeleitet werden, um potenziell negative Auswirkungen eines Algorithmic Bias zu reduzieren.

Das Projekt wird durch das Bayerische Forschungsinstitut für digitale Transformation (bidt) gefördert.

Zurück