Wenn Computer nach Klischees urteilen

Wenn Computer nach Klischees urteilen

Wenn Computer nach Klischees urteilen

ChatGPT und Co. sind oft stereotypisch und sogar sexistisch. Sie tendieren dazu, Geschlechterklischees zu reproduzieren. Zu diesem Schluss kommt eine Studie zu «Gender Bias in Large Language Models» im Auftrag der UNESCO. Was dieser sogenannte Gender Bias – also die geschlechterbezogene «Verzerrung» durch Künstliche Intelligenz – bedeutet, darüber spricht Alumna Hera Zimmermann der FH Graubünden.Als Gründerin des Online-Shops Juna Period setzt sie sich nicht nur für nachhaltige Produkte ein, sondern engagiert sich auch öffentlich für Gleichberechtigung und Diversität. Gleichzeitig sieht sie sich mit ihrer Social-Media-Agentur Tings regelmässig mit KI-basierten Tools konfrontiert. So kennt sie die Funktionsweise dieser Systeme und die Risiken von Gender Bias aus erster Hand.

Interview und Text: Corin Harzenmoser, Ralph Kohler / Bild: zVg

Mit Ihrer Agentur Tings bewegen Sie sich tagtäglich in der digitalen Marketingwelt. Wie äussert sich Gender Bias dort konkret? 

Oft sehr subtil – zum Beispiel durch die Filter-Bubble auf Social Media. Selbst wenn mein persönliches Nutzungsverhalten bewusst divers ist, bleibt mein Feed dennoch gefiltert. Das ist bedenklich, weil es eine verzerrte Wahrnehmung erzeugt.  Ausserdem darf ich mich, wenn ich Kampagnen entwickle oder Zielgruppen analysiere, nicht nur auf Daten verlassen, die von einer Künstlichen Intelligenz (KI) generiert oder von Algorithmen gesteuert sind, denn diese zeigen mir nicht automatisch die Realität, sondern «nur» einen Ausschnitt davon. 

Warum ist dieser Gender Bias so problematisch?

Weil er Stereotype weiter zementiert, anstatt Vielfalt sichtbar zu machen. Wir leben in einer Zeit, in der wir gesellschaftlich nach mehr Diversität streben. Und gerade hier kann KI ein Rückschritt sein. Denn sie behält Rollenbilder nicht nur bei, sondern verstärkt sie gar in vielen Fällen. So bewerten manche KI-Programme Frauen beispielsweise seltener als qualifiziert, weil sie mit überwiegend männlichen Daten trainiert wurden. Trotzdem finde ich nicht, dass man KI schlechtreden sollte. Im Gegenteil: Sie kann im Alltag eine grosse Unterstützung sein. Deshalb ist es so wichtig, dass wir uns gerade im Kontext von KI bewusst auch mit Themen wie Gender Bias auseinandersetzen. So können wir dafür sorgen, dass KI ein Werkzeug für Fortschritt und Vielfalt wird und nicht einfach ein Spiegel alter Muster bleibt.

Woran liegt es, dass KI oft sexistische oder einseitige Ergebnisse liefert? 

Das Problem sind die Datenbanken, auf denen die KI basiert. Diese sind «biased». Aber nicht, weil die KI per se sexistisch ist. Sondern weil wir Menschen es sind.  KI erfindet keinen Sexismus. Sie bildet nur das Verhalten und die Informationen ab, die wir ihr geben. Sie hält uns im Grunde einen Spiegel vor. Selbst ein Social-Media-Algorithmus ist eine Form von KI. Was ich konsumiere, verstärkt sich. Das hat nicht nur Einfluss auf mein digitales Umfeld, sondern auch auf gesellschaftliche Muster, die weitergetragen werden – oft unbewusst.

Gab es einen Moment, in dem Sie besonders gespürt haben: «Hier braucht es mehr differenzierte oder weibliche Perspektiven in der Technologie»?

Ja, definitiv. Während einer Kampagne, die wir komplett mit KI generiert hatten, fiel mir besonders auf, dass die KI differenziertere Grundlagen braucht. Ein Beispiel: Wir wollten ein Bild generieren und gaben der KI den Prompt «Eine Frau mäht den Rasen». Bekommen haben wir eine übertrieben schlanke, weisse Frau mit grosser Oberweite, perfekt gestylt. Das ist nicht nur unrealistisch, sondern auch besorgniserregend.  Solche Darstellungen zeigen, wie tief verankert gewisse Stereotype in den Datenbanken sind, mit denen die KI arbeitet. Das Problem ist: Genau auf diese stereotypischen Inhalte springen viele Leute an. Diese Inhalte werden geliked, geteilt und kommentiert und erreichen so eine grosse Reichweite. Dadurch verstärken sich diese verzerrten Bilder immer weiter. 

Die Algorithmen sind aber trainierbar – auch durch die Userinnen und User. Was muss jetzt geschehen, damit wir in Zukunft diskriminierungsfreie Inhalte bekommen? 

Es braucht mehr Medienkompetenz – und zwar auf allen Ebenen. Es reicht nicht aus, nur im «Sendemodus» zu sein und Inhalte zu erstellen. Auch beim Konsumieren von Inhalten müssen wir kritischer und bewusster werden. Das gilt nicht nur für uns in der Arbeitswelt, sondern auch für junge Menschen. Deshalb finde ich es enorm wichtig, solche Themen bereits in der Schule zu verankern und auch die Eltern zu sensibilisieren.  KI-Tools wie ChatGPT merken sich Nutzungsverhalten. Das heisst, ich beeinflusse die KI durch mein eigenes Verhalten positiv, wenn ich zum Beispiel bewusst vielfältige Inhalte abfrage, diskriminierungssensibel formuliere und der KI damit neue Impulse gebe. Es liegt also auch an uns, den Userinnen und Usern.

Wer trägt Ihrer Meinung nach die Verantwortung dafür, dass KI nicht diskriminiert?

KI ist immer ein Abbild der Daten, mit denen wir sie «füttern». Und diese Daten sind oft stereotypisch. Es wäre zu einfach, nur die Technologie verantwortlich zu machen. Die Nutzenden tragen ihren Teil dazu bei. Deshalb ist es enorm wichtig, bewusst vielfältige Inhalte zu suchen. Es braucht also dringend Medienkompetenz. Nicht nur im Sinne, dass wir die Tools bedienen können, sondern inhaltlich: Wie lese ich Inhalte kritisch? Wie erkenne ich Stereotype? Wie wirkt mein eigenes Verhalten zurück auf das System? Und das betrifft nicht nur die Unternehmerinnen und Unternehmer, sondern beginnt viel früher. Wir brauchen ein Grundverständnis von gesellschaftlicher Vielfalt, sonst können wir Diskriminierung weder erkennen noch verhindern.

Das ist Hera Zimmermann

Das ist Hera Zimmermann

Innovation, Unternehmertum und Feminismus – das seien Themen, die sie bewegen, sagt die Jungunternehmerin über sich selbst. Mit Mitte 20 hat sie mit ihrer Digital-Agentur Tings den Schritt in die Selbständigkeit gewagt. Sie wolle den Schweizer Markt nachhaltig verändern. Ein paar Jahre später lancierte sie den Onlineshop Juna Period, der nachhaltige Alternativprodukte zu Wegwerfartikeln wie Tampons und Binden anbietet. An der FH Graubünden hat sie die Journalismusausbildung, IMK-Lehrgang Medien, absolviert.

Beitrag von

Corin Harzenmoser, Leiterin Fachstelle Diversity