20.08.2025

Chatbots auf dem Prüfstand: HSBI entwickelt mit Aktion Mensch KI-Anwendung gegen diskriminierende Sprache

240618-HSBI-Diskriminierung-28-slider
Bei dem Workshop an der HSBI wurden die Sprachmodelle auf den Prüfstand gestellt. © S.Jonek/HSBI
Auf einem Tablet ist ein ChatGPT-Chatverlauf zu sehen in welchem die KI um eine Geschichte von einem Behinderten Menschen der keinem etwas beweisen muss gebeten wird
Viele KI-Chatbots reproduzieren stereotypische Darstellungen von Menschen mit Behinderung. © S. Jonek/HSBI
Professor Doktor Frederik Bäumer Professor Doktor Hans Brandt-Pook und Professor Doktor Christian Huppert stehen nebeneinander unterhalten sich
Wollen Diskriminierung durch Sprachmodelle durch ihre fachübergreifende Zusammenarbeit transparent machen: Prof. Dr.-Ing. Hans Brandt-Pook, Prof. Dr. rer. pol. Frederik Bäumer und Prof. Dr. phil. Christian Huppert von der HSBI. © S. Jonek/HSBI
Viele KI-Chatbots reproduzieren stereotype Darstellungen von Menschen mit Behinderung. Die Aktion Mensch hat nun gemeinsam mit der HSBI die KI-Anwendung „ABLE“ entwickelt, die die Prüfung von Chatbots auf diskriminierende Sprache und Verständlichkeit ermöglicht. ABLE ist ab sofort für interessierte Unternehmen kostenfrei auf der Entwickler:innen-Plattform GitHub verfügbar.

KI-Chatbots kommen bereits in vielen Bereichen zum Einsatz – in Online-Shops, bei Behörden oder im Umgang mit Kund:innen. Ihr Ziel: Einfache Anliegen schnell und unkompliziert bearbeiten sowie digitale Angebote für alle Nutzer:innen zugänglicher machen. Doch für viele Menschen mit Behinderung gilt das so noch nicht. Sie stoßen bei der Nutzung von Chatbots häufig auf unverständliche oder sogar diskriminierende Sprache.

Um diesem Missstand entgegenzuwirken, hat die Aktion Mensch gemeinsam mit der Hochschule Bielefeld (HSBI) und dem KI-Spezialisten wonk.ai die KI-Anwendung ABLE (Ableism Bias Language Evaluation, deutsch: Überprüfung von Sprache auf Ableismus1 und Vorurteile) entwickelt. Mit ihr lässt sich automatisiert analysieren, wie Chatbots mit Menschen mit Behinderung kommunizieren. Denn viele bedienen sich nicht nur schwer verständlicher Sprache, sondern auch stereotyper oder gar verletzender Formulierungen – und schaffen damit neue Barrieren, anstatt digitale Teilhabe zu ermöglichen. Mit der Anwendung wird diese Problematik nun gezielt angegangen: Künftig steht sie interessierten Unternehmen zur Prüfung ihrer Chatbots zur Verfügung.

Von KI zu KI: Automatisierte Analyse von Chatbot-Antworten

ein ChatGPT Chatverlauf, in welchem die KI verweigert einen Witz über behinderte menschen zu erzählen
In Ansätzen funktioniert die Vermeidung von Diskriminierung in KI-Sprachmodellen.

ABLE führt eine Vielzahl automatisierter Gespräche mit Chatbots und analysiert deren Antworten auf diskriminierende, nicht-inklusive Inhalte hin. Ausgangspunkt ist ein speziell entwickelter Fragenkatalog, der stereotype, unverständliche oder ausschließende Reaktionen herausfiltert. Die Chatbot-Antworten werden nach einheitlichen Kriterien bewertet – etwa hinsichtlich ihrer Verständlichkeit, faktischen Richtigkeit und Aktualität. Alle Dialoge werden dokumentiert und für Expert:innen über eine Weboberfläche zugänglich gemacht. Ziel ist es, Muster und neue Formen von sprachlicher Diskriminierung frühzeitig zu erkennen und digitale Barrieren so systematisch abzubauen. „Unsere Anwendung macht sichtbar, wo und auch wie KI-Chatbots diskriminierende Sprache verwenden – und schafft damit eine wichtige Grundlage, um digitale Kommunikation inklusiver zu gestalten“, kommentiert Christina Marx, Sprecherin der Aktion Mensch.

Menschen mit Behinderung gestalten ABLE aktiv mit

mehrere personen sind Professor Doktor Hans Brandt-Pook, welcher vor einem Whiteboardsteht und vorträgt, zugewandt
Prof. Dr. Christian Huppert: „Die Perspektive von Menschen mit Behinderungserfahrung ist unverzichtbar.“

Rund 80 Menschen mit Behinderung, darunter Mitglieder der Teilhabe-Community der Aktion Mensch**, haben sich im Vorfeld in partizipativen Workshops beteiligt, um die Evaluationsrichtlinien weiterzuentwickeln und Chatbots besser für diskriminierende Fragestellungen zu sensibilisieren. Dabei brachten sie ihre persönlichen Perspektiven auf diskriminierende Sprache ein und wirkten an der Entwicklung von Prompts mit, die später in der KI-Anwendung ABLE umgesetzt wurden.

Besonders häufig fiel den Workshop-Teilnehmenden die Reproduktion von Stereotypen auf – etwa die Darstellung von Menschen mit Behinderung als Superheld:innen mit besonderen Fähigkeiten. Ein:e Teilnehmer:in sagt dazu: „Formulierungen wie ‚Trotz seiner Behinderung hat er studiert‘ stellen normale Lebensentscheidungen als außergewöhnlich dar. Stattdessen sollte einfach beschrieben werden: Eine Person studiert und hat eine Behinderung“. Weitere Kritikpunkte an den Chatbots betrafen sachliche Fehler, fehlendes Hintergrundwissen sowie eine respektlose oder schwer verständliche Sprache, zum Beispiel durch unnötig komplexe Satzstrukturen.

Diskriminierende Muster zeigen akuten Handlungsbedarf auf

In den partizipativen Workshops wurden verschiedene Chatbots untersucht. Diese unterscheiden sich erheblich in ihrer Sensibilität gegenüber diskriminierender Sprache. Einige Chatbots übernehmen problematische Formulierungen teilweise unreflektiert, während andere auf ausweichende, allgemein gehaltene Aussagen zurückgreifen. Christina Marx appelliert: „Unsere diskriminierungssensible KI-Anwendung ABLE zeigt: Inklusive Sprache bei KI-Chatbots ist nicht nur möglich, sondern längst überfällig. Digitale Teilhabe ist kein Privileg, sondern ein Anrecht. Wer sie wirklich umsetzen will, muss sie auch sprachlich ermöglichen – in allen Lebensbereichen.“

Ausblick: Weiterentwicklung und Unterstützung für Entwickler:innen

Seit heute ist die KI-Anwendung auf der Plattform GitHub unter einer Open-Source-Lizenz verfügbar und für interessierte Unternehmen sowie Entwickler:innen einfach und kostenlos nutzbar. Die Aktion Mensch möchte ABLE gemeinsam mit Interessierten weiterentwickeln, um die Anwendung an die sich stetig verändernden Rahmenbedingungen anzupassen. Ab sofort unterstützt die Anwendung Entwickler:innen und Inklusions-Expert:innen dabei, Potenziale für eine inklusivere und diskriminierungssensiblere Sprache frühzeitig zu erkennen.

Text: Aktion Mensch

Weitere Informationen

Wie kann Diskriminierung durch Sprachmodelle messbar gemacht und – in einem zweiten Schritt – abgestellt werden? Mit diesen Fragen war die „Aktion Mensch“ an Expert:innen der HSBI herangetreten. Daraufhin haben Prof. Dr. Frederik Bäumer, Prof. Dr. Hans Brandt-Pook – beide Fachbereich Wirtschaft – und Prof. Dr. Christian Huppert vom Fachbereich Sozialwesen einen Workshop mit ganz verschiedenen Teilnehmer:innen organisiert. Huppert und seine Mitstreiter luden neben verschiedenen Menschen mit zugeschriebener Behinderung Studierende der Wirtschaftsinformatik und der Sozialen Arbeit, Vertreterinnen des AStA und die Beauftragte für Studierende mit Behinderungen und chronischen Krankheiten an der HSBI ein. Außerdem verstärkten Vertreterinnen des Beirats für Behindertenfragen der Stadt Bielefeld, des Politischen Stammtisches Bielefeld/Bethel regional und des Bereichs Kriminalprävention die Runde. Hier geht es zur ausführlichen HSBI-Pressemitteilung

Weitere Informationen zur KI-Anwendung ABLE und zum Testverfahren
Hier geht es zur Pressemitteilung der Aktion Mensch

1 Ableismus bedeutet, dass Menschen mit Behinderung im Alltag auf bestimmte Merkmale reduziert und ungleich behandelt werden, etwa aufgrund eines Rollstuhls, einer psychischen Erkrankung oder Lernschwierigkeiten. Ohne die Person zu kennen oder mit ihr zu sprechen, wird oft pauschal über ihre Fähigkeiten, Gefühle oder Möglichkeiten entschieden – das ist eine Form von Diskriminierung.