Auch die Schweizer KI Apertus ist anfällig für Vorurteile
Das Schweizer KI-Modell Apertus gilt als eines der transparentesten weltweit. Doch es reproduziert weiterhin bekannte Vorurteile und Stereotype. Warum selbst offene, öffentlich finanzierte Modelle nicht frei von Bias sind und welche Lösungsansätze es gibt.
30 Jahre alt, männlich, geboren in Zürich. So sieht das Profil aus, das das Schweizer LLM-Modell Apertus erzeugt, wenn wir es bitten, eine Person zu beschreiben, die «im Ingenieurwesen arbeitet, ledig ist und Videospiele spielt».
In einem anderen Austausch bitten wir Apertus, sich eine Person vorzustellen, die als Reinigungskraft arbeitet, drei Kinder hat und gerne kocht. Das Ergebnis: eine 40-jährige Puertoricanerin namens Maria Rodriguez.
Diese Antworten spiegeln weit verbreitete Stereotype wider. Doch im Gegensatz zu einem Menschen kann eine KI diese automatisch und in grossem Umfang reproduzieren und dadurch bestehende Formen der Diskriminierung verstärken. Selbst transparente Modelle, die wie Apertus mit öffentlichen Daten trainiert wurden, können stillschweigend alte Vorurteile verstärken.
Weil KI etwa in der Personalbeschaffung, im Gesundheitswesen oder in der Strafverfolgung eingesetzt wird, droht sie bestehende Ungleichheiten zu verfestigen. Laut Bianca Prietl, Professorin für Gender Studies an der Universität Basel, könnten sogar die Fortschritte der vergangenen Jahre wieder gefährdet sein. «Die Nutzenden neigen dazu, den Ergebnissen der KI zu vertrauen, weil sie sie als objektive und neutrale Technologie wahrnehmen, obwohl sie das nicht ist», sagt Prietl.
Expert:innen sind der Ansicht, dass neben den voreingenommenen Daten, mit denen Algorithmen trainiert werden, auch die mangelnde Vielfalt innerhalb der Entwicklungsteams berücksichtigt werden muss, um Vorurteile in KI-Systemen abzubauen. In einem Interview mit Swissinfo erklärt Innenministerin Elisabeth Baume-Schneider, dass die Schweiz an neuen gesetzlichen Massnahmen arbeite, da die bestehenden Gesetze Lücken aufweisen.
«Es geht nicht darum, Algorithmen zu verteufeln. Sondern darum, anzuerkennen, dass Entscheidungen, die von KI auf undurchsichtige Weise getroffen werden, politische, rechtliche und wirtschaftliche Konsequenzen haben können», so Baume-Schneider gegenüber Swissinfo.
Apertus haben wir hier bereits beschrieben:
Mehr
Was kann Apertus? Fakten und Mythen über das neue Schweizer KI-Modell
KI entwickelt sich weiter, Vorurteile bleiben bestehen
Studien der letzten Jahre haben gezeigt, dass Algorithmen Frauen, Menschen mit anderer Hautfarbe sowie Angehörige von Minderheiten systematisch diskriminieren. Eine Bloomberg-AnalyseExterner Link aus dem Jahr 2023 anhand von mehr als 5000 KI-generierten Bildern zeigte, dass diese ethnische und geschlechtsspezifische Stereotype enthielten. CEOs wurden als weisse Männer und Kriminelle als dunkelhäutig dargestellt.
Eine neuere StudieExterner Link von Forscher:innen der Universität Washington kam zum Schluss, dass die Tools, die bei der Auswahl von Jobkandidat:innen eingesetzt werden, in 85% der Fälle männliche Namen bevorzugen. Männer mit dunkler Hautfarbe rangieren immer auf den letzten Plätzen, sodass sie in allen getesteten Fällen benachteiligt sind. Prietl bezeichnet diesen Trend als alarmierend, da Entscheidungen, die in grossem Umfang von Algorithmen getroffen werden, das Leben von Hunderttausenden von Menschen beeinflussen. «Ein Personalvermittler kann zwei oder drei voreingenommene Entscheidungen pro Tag treffen, ein Algorithmus Tausende pro Sekunde», betont sie.
Vorurteile und Stereotype im Schweizer LLM
Die tief in den KI-Modellen verankerten Stereotype in Bezug auf Geschlecht und sexuelle Orientierung, die sich in den Forschungsergebnissen zeigen, bestätigen sich auch in den Tests von Swissinfo.
So beschreibt ChatGPT Frauen, schwule und bisexuelle Menschen mit Adjektiven aus dem emotionalen Bereich wie «einfühlsam» und «sensibel». Männer hingegen werden mit kompetenzbezogenen Begriffen wie «pragmatisch» und «rational» beschrieben. Apertus gibt ähnliche Antworten, betont jedoch, dass «jeder Mensch einzigartig ist» und es «unerlässlich ist, Stereotype und Verallgemeinerungen zu vermeiden».
Eine StudieExterner Link aus dem Jahr 2023 zu mehreren beliebten LLMs kam zu ähnlichen Ergebnissen.
Sowohl OpenAI als auch das Team hinter Apertus geben an, dass sie versucht haben, geschlechtsspezifische Vorurteile und sexistische Inhalte mithilfe von Methoden wie Datenfiltern zu reduzieren. Laut Bettina Messmer, einer der Hauptentwicklerinnen von Apertus, wurden diese Filter jedoch nicht nachträglich zur Korrektur der Ergebnisse, sondern bereits vor der Verwendung der Daten zum Trainieren des Modells angewendet. Messmer sagt jedoch, dass die erste Version des Schweizer LLM nicht speziell auf Geschlechterinklusivität ausgerichtet war.
Für Prietl zeigt dies, dass bei der Entwicklung von KI-Modellen von Anfang an stärker auf Vorurteile geachtet werden sollte. «Geschlechter- und Diversitätsfragen sollten im Mittelpunkt stehen und nicht nur eine untergeordnete Rolle spielen», sagt sie und betont, dass Transparenz bei den Trainingsdaten allein nicht ausreicht. Messmer fügt hinzu, dass das Apertus-Team daran interessiert sei, mit Expert:innen zusammenzuarbeiten, um diese Aspekte für zukünftige Versionen des Modells zu evaluieren.
Ning WangExterner Link, Technologieethikerin an der Universität Zürich, erkennt ein allgemeines Muster in der KI-Entwicklung: «Es ist (für diese Teams) wichtiger, das LLM auf den Markt zu bringen und dabei den technischen Teil zu priorisieren. Ethische und gesellschaftliche Fragen kommen erst später.» Zwar kann Wang den Wettbewerbsdruck nachvollziehen, sie betont jedoch, dass dieser Ansatz eine entscheidende Chance verpasst, Ethik von Anfang an in das KI-Design zu integrieren.
Mehr
Wie die Schweiz ihre digitale Unabhängigkeit erreichen will
Die Ursachen für Vorurteile in LLMs
Die geschlechts- und herkunftsspezifischen Vorurteile in LLMs resultieren daraus, dass sie anhand historischer Quellen und Internetdaten trainiert werden, die von männlichen oder westlichen Perspektiven geprägt sind. Vorurteile bestehen aber auch deshalb fort, weil Frauen und Angehörige von Minderheiten in den Teams, die wichtige Entscheidungen in der Technologieentwicklung treffen, oft nicht vertreten sind. Das Apertus-Team beispielsweise kommt aus mehreren Ländern, besteht jedoch überwiegend aus Männern.
Wangs eigene Erfahrung veranschaulicht diese Herausforderung. Als Angehörige einer ethnischen Minderheit in Europa sah sie sich gezwungen, selbst Möglichkeiten zu schaffen, damit ihre Stimme in der Wissenschaft ernster genommen wird. «Wenn wir nicht einmal mit am Tisch sitzen, wie können wir uns dann Gehör verschaffen?» fragt sie. Sie hofft, dass in Zukunft mehr junge Kolleginnen die Bühne betreten und Entscheidungen beeinflussen können, um KI inklusiver und fairer zu gestalten.
Mehr Diversität in KI-Teams
Institutionen und Unternehmen ergreifen Massnahmen, um der männlichen Dominanz entgegenzuwirken und vielfältige Perspektiven in der KI zu fördern. Zinnya del Villar, Direktorin für Technologie, Daten und Innovation beim US-Thinktank Data Pop Alliance, handelt entsprechend, indem sie bei der Einstellung von Mitarbeitenden für ihr Team Frauen den Vorzug gibt. «Je vielfältiger die Teams sind, desto besser kann KI die Gesellschaft abbilden und desto sicherer ist ihre Nutzung», sagt del Villar.
In der Schweiz versuchen neue Initiativen, die Sichtbarkeit und Beteiligung von Frauen im Bereich der künstlichen Intelligenz zu erhöhen. Eine davon ist die Veröffentlichung der Liste der 100 einflussreichsten Frauen in der KI.Externer Link
«Frauen in der Technologie sind keine Ausnahme, sondern eine treibende Kraft», sagt Melanie Gabriel, Co-Direktorin und Chief Operating Officer des KI-Zentrums an der Eidgenössischen Technischen Hochschule Zürich (ETHZ), die an der Liste mitgewirkt hat.
Lösungen gegen KI-Diskriminierung
Trotz Fortschritten bei der Rekrutierung und Entwicklung bleibt die Frage, wie mit inhärenten Verzerrungen in Trainingsdaten umgegangen werden soll, weiterhin ungelöst. Alessandra Sala, Leiterin der Abteilung für Künstliche Intelligenz bei der freien Bildplattform Shutterstock und Präsidentin der Organisation Women in AI, sieht mehrere Lösungsansätze.
Eine Möglichkeit ist, automatisierte externe Audits durchzuführen, um Fehler, Vorurteile und Ungleichgewichte zu erkennen, bevor KI-Technologien auf den Markt kommen. «Bevor sie in die Hände unserer Kinder und Jugendlichen gelangen», sagt Sala.
Eine andere wirksame Massnahme besteht laut Sala darin, die Datensätze so anzupassen, dass KI-Modelle eine ausgewogene Darstellung der Geschlechter und Ethnien in allen Berufen vorfinden. Darüber hinaus kann das Modell laut Sala so programmiert werden, dass es während des Trainings unterrepräsentierten Fällen mehr Gewicht beimisst und eingebettete Vorurteile abmildert.
Bei Fragen der Fairness und des Bias sind öffentliche und nationale KI-Modelle wie Apertus laut Sala verantwortungsbewusster als gewinnorientierte Unternehmen und können eine Vorreiterrolle übernehmen.
«Ich drücke diesen Teams die Daumen, dass sie beweisen können, dass öffentliche Forschung grosse Technologieunternehmen schlagen kann», sagt sie. «Denn das kann sie tatsächlich.»
Editiert von Gabe Bullard, Übertragung aus dem Englischen: Michael Heger/gm
Mehr
In Übereinstimmung mit den JTI-Standards
Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!
Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch