Die Frauen hinter der KI: 22 Porträts, die du kennen solltest (Teil 1 von 2)

Die Frauen hinter der KI: 22 Porträts, die du kennen solltest (Teil 1 von 2)
Namen der gezeigten Frauen unten im Artikel

TLDR: Wenn über Künstliche Intelligenz gesprochen wird, fallen meist die immer gleichen Namen – und die gehören fast ausschliesslich Männern. Dabei sind es Frauen wie Fei-Fei Li, Joy Buolamwini oder Regina Barzilay, die mit ihrer Arbeit ganze Forschungsfelder geprägt, Milliarden-Datensätze geschaffen, Diskriminierung in Algorithmen aufgedeckt und KI-gestützte Krebsfrüherkennung entwickelt haben. In diesem zweiteiligen Artikel stellen wir dir über 20 Frauen aus aller Welt vor, die KI nicht nur vorantreiben, sondern sie fairer, sicherer und nützlicher machen. Teil 1 widmet sich den Pionierinnen in Forschung, Computer Vision, Ethik und algorithmischer Gerechtigkeit.

Warum dieser Artikel überfällig ist

Die KI-Branche hat ein Diversitätsproblem – und das ist keine Meinungssache, sondern belegbar. Laut dem Stanford AI Index Report 2024 liegt der Frauenanteil unter KI-Forschenden in führenden Unternehmen und Universitäten bei rund 20 bis 30 Prozent. In Führungspositionen sieht es noch dünner aus. Das ist nicht nur ein Gerechtigkeitsthema: Wenn überwiegend eine Gruppe Technologien entwickelt, die alle betreffen, entstehen blinde Flecken – bei Trainingsdaten, bei Anwendungsszenarien, bei ethischen Leitplanken.

Die gute Nachricht: Es gibt Frauen, die genau diese Lücken schliessen. Die Forscherinnen, Gründerinnen und Aktivistinnen in dieser Liste arbeiten an Computer Vision, Datenschutz, fairer Algorithmik, sozialer Robotik, medizinischer KI und verantwortungsvoller Skalierung grosser Sprachmodelle. Ihre Geschichten sind nicht nur inspirierend – sie zeigen ganz konkret, wie KI besser werden kann.

  • Fei-Fei Li schuf mit ImageNet den Datensatz, der moderne Computer Vision ermöglichte, und setzt sich für menschenzentrierte KI ein.
  • Daphne Koller demokratisierte KI-Bildung durch Coursera und verbindet heute KI mit Medikamentenentwicklung bei Insitro.
  • Regina Barzilay entwickelte mit Mirai ein KI-System, das Brustkrebs bis zu fünf Jahre vor der Diagnose erkennen kann.
  • Joy Buolamwini deckte mit dem Gender-Shades-Projekt systematische Diskriminierung in Gesichtserkennungssystemen auf und bewegte Tech-Konzerne zur Korrektur.
  • Timnit Gebru gründete nach ihrem Abgang von Google das unabhängige Forschungsinstitut DAIR für gemeinwohlorientierte KI-Forschung.
  • Rediet Abebe nutzt Algorithmen, um soziale Ungleichheit zu bekämpfen – von Wohnungsnot bis Bildungschancen.
  • Latanya Sweeney legte mit k-Anonymität die Grundlage für modernen Datenschutz und bewies, dass "anonyme" Daten oft gar nicht anonym sind.
  • Margaret Mitchell macht verantwortungsvolle KI-Entwicklung mit Model Cards und Data Sheets zum Standard in der Open-Source-Community.

Forschung & Computer Vision

1. Fei-Fei Li – Die Frau, die der KI das Sehen beibrachte (China/USA)

Fei-Fei Li wuchs in einfachen Verhältnissen in China auf, emigrierte als Teenager in die USA und jobbte in der Wäscherei ihrer Eltern, bevor sie Professorin an der Stanford University wurde. Ihre Geschichte allein wäre schon bemerkenswert – aber das, was sie für die KI-Forschung geleistet hat, ist es noch mehr.

Li initiierte das Projekt ImageNet, eine Bilddatenbank mit über 14 Millionen annotierten Bildern, die es neuronalen Netzen erstmals ermöglichte, visuelle Inhalte zuverlässig zu erkennen. ImageNet gilt als Katalysator für den Durchbruch im Deep Learning und bildet die Grundlage für heutige Anwendungen in medizinischer Bilddiagnostik, autonomem Fahren und Barrierefreiheit.

Heute leitet Li das Stanford Human-Centered AI Institute (HAI) und setzt sich dafür ein, dass KI-Entwicklung nicht nur technisch brillant, sondern auch inklusiv und menschenzentriert ist. Über Stipendien und Bildungsprogramme holt sie gezielt Frauen und unterrepräsentierte Gruppen ins Feld. Ihre Memoiren The Worlds I See dokumentieren diesen Weg von der Einwanderin zur Architektin moderner Computer Vision.

2. Daphne Koller – Von probabilistischen Modellen zu Coursera (Israel/USA)

Daphne Koller ist Pionierin für probabilistische grafische Modelle – mathematische Werkzeuge, mit denen KI-Systeme Unsicherheit und komplexe Zusammenhänge abbilden können. Für diese Arbeit erhielt sie 2004 das MacArthur-Stipendium, oft auch als "Genius Grant" bezeichnet.

Doch Kollers Einfluss reicht weit über die Forschung hinaus: 2012 gründete sie Coursera mit, eine Online-Lernplattform, die Millionen Menschen weltweit Zugang zu hochwertigen KI- und Machine-Learning-Kursen von Top-Universitäten verschaffte. Das war ein massiver Demokratisierungsschub für KI-Wissen – und machte Bildung, die früher wenigen vorbehalten war, für alle zugänglich.

Mit ihrem Startup Insitro verbindet Koller heute maschinelles Lernen mit Biotechnologie, um neue Medikamente schneller und zielgerichteter zu entwickeln. Ein Beispiel dafür, wie KI nicht nur in der Tech-Branche, sondern auch in der Pharmaforschung konkrete Ergebnisse liefern kann.

3. Regina Barzilay – KI gegen Krebs (Israel/USA)

Als ihr Arzt den Krebs übersah, baute sie eine KI, die ihn früher findet. Regina Barzilay, Professorin am MIT und selbst Brustkrebsüberlebende, nutzte ihre eigene Diagnose als Ausgangspunkt, um die Vorsorge mit KI zu verbessern.

Ihr Team entwickelte Mirai, ein KI-System zur Mammographie-Analyse, das individuelle Risikoprofile erstellt und Brustkrebs bis zu fünf Jahre vor der eigentlichen Diagnose erkennen kann. Mirai nutzt historische Bilddaten und klinische Informationen, um subtile Muster zu identifizieren, die Radiolog:innen häufig entgehen. Kliniken in mehreren Ländern testen das System bereits, und Studien zeigen, dass die KI deutlich früher vor Risiken warnen kann – mit der Chance, aggressive Therapien zu vermeiden und Leben zu retten.

Für diesen Beitrag erhielt Barzilay den ersten AAAI Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity – dotiert mit einer Million US-Dollar. Ein starkes Signal, dass KI-Forschung mit direktem Nutzen für Menschen nicht nur möglich, sondern auch anerkannt ist.

4. Joy Buolamwini – Rassismus im Code sichtbar gemacht (Ghana/USA)

Eine Studentin, deren Gesicht von der KI nicht erkannt wird – und die daraufhin die Branche verändert. Joy Buolamwini entdeckte im MIT Media Lab, dass kommerzielle Gesichtserkennungssysteme dunkelhäutige Frauen um Grössenordnungen schlechter erkennen als hellhäutige Männer.

Im Gender-Shades-Projekt zeigte sie systematisch, dass Fehlerquoten bei dunkelhäutigen Frauen über 30 Prozent lagen, während sie bei hellhäutigen Männern unter einem Prozent blieben. Das war keine akademische Fussnote – diese Systeme wurden bereits in Polizeiarbeit, Grenzkontrollen und im Handel eingesetzt.

Buolamwini gründete die Algorithmic Justice League, um Betroffene zu unterstützen und Entwickler:innen, Behörden und Unternehmen zu faireren Systemen zu bewegen. Nach Veröffentlichung der Ergebnisse überarbeiteten IBM, Microsoft und Amazon ihre Gesichtserkennungsprodukte, setzten Verkaufsstopps um oder bauten neue Prüfprozesse ein. Die Debatte, die sie angestossen hat, ist inzwischen Grundlage internationaler Leitlinien für faire KI.

5. Timnit Gebru – Aus einem Rauswurf wurde ein Forschungsinstitut (Äthiopien/USA)

Timnit Gebru war Co-Autorin der Gender-Shades-Studie und Mitgründerin der Initiative Black in AI, die schwarze Forscher:innen weltweit vernetzt. Als leitende Forscherin im Ethical-AI-Team von Google kritisierte sie Datenerhebung und ökologische wie soziale Risiken grosser Sprachmodelle – was 2020 in ihrem öffentlich diskutierten Abgang von Google mündete.

Statt sich zurückzuziehen, gründete Gebru das Distributed AI Research Institute (DAIR), um unabhängig von Konzerninteressen zu forschen. DAIR schafft Raum für Forschung, die sich nicht am Geschäftsmodell von Big Tech orientiert, sondern am Schutz marginalisierter Gruppen und der Umwelt. Ihre Arbeit prägt heute weltweit Diskussionen über KI-Regulierung, Datenschutz und faire Trainingsdaten.

6. Rediet Abebe – Algorithmen gegen Ungleichheit (Äthiopien/USA)

Rediet Abebe, Assistenzprofessorin an der UC Berkeley, stellt eine Frage, die in der KI-Branche viel zu selten gestellt wird: Wie können Algorithmen helfen, soziale Ungleichheit zu reduzieren statt zu zementieren?

Abebe entwickelt mathematische Frameworks und Algorithmen, die Behörden dabei unterstützen, knappe Ressourcen gerechter zu verteilen – etwa bei Sozialwohnungen, Hilfsgeldern oder Bildungschancen. Mit der Initiative Mechanism Design for Social Good (MD4SG) vernetzt sie Forscher:innen, NGOs und Verwaltungen, um soziale Fragestellungen ins Zentrum der KI-Forschung zu rücken.

Ihre Arbeiten beeinflussen konkrete politische Entscheidungen – von der Ausgestaltung von Hilfsprogrammen in US-Städten bis zur Zusammenarbeit mit der äthiopischen Regierung. Sie zeigt damit: KI kann mehr als Werbung optimieren – sie kann Werkzeuge für Gerechtigkeit liefern.

7. Latanya Sweeney – Die Frau, die "anonyme" Daten deanonymisierte (USA)

Ein Datensatz, drei Datenpunkte – und der Gouverneur ist identifiziert. Latanya Sweeney zeigte bereits Ende der 1990er-Jahre, dass pseudonymisierte Daten oft leicht re-identifizierbar sind. In einem berühmt gewordenen Experiment kombinierte sie anonymisierte Gesundheitsdaten mit öffentlichen Wählerregistern und konnte so die Identität des Gouverneurs von Massachusetts rekonstruieren.

Sie entwickelte das Konzept der k-Anonymität, eine Methode, um Re-Identifikation deutlich zu erschweren, und prägte damit einen Standard, der bis heute im Datenschutz verwendet wird. Ihre Forschung floss direkt in die US-Gesundheitsdatenschutzregel HIPAA ein. Sweeney war zudem Chief Technologist der US-Handelskommission FTC – und die erste schwarze Frau, die am MIT in Informatik promoviert wurde (2001).

8. Margaret Mitchell – Responsible AI in der Praxis (USA)

Margaret Mitchell ist Chief Ethics Scientist bei Hugging Face und war zuvor Mitgründerin des Ethical-AI-Teams bei Google. Ihre Arbeit zielt darauf ab, verantwortungsvolle KI-Entwicklung nicht nur als akademisches Konzept zu behandeln, sondern als gelebte Praxis im Entwicklungsalltag zu verankern.

Mitchell arbeitet an Verfahren, um Trainingsdaten, Evaluierungen und Governance von KI-Modellen transparenter und fairer zu gestalten – etwa über standardisierte "Model Cards" und "Data Sheets for Datasets". Diese Werkzeuge helfen Entwickler:innen und Unternehmen, Modelle besser zu dokumentieren, ihre Grenzen zu verstehen und Verantwortung für die Ergebnisse zu übernehmen.

Fragen zu KI und Digitalen Geschäftsmodellen? #fragRoger

Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat.

Disclaimer: Dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.ai und Gemini.Google.com) manuell zusammengestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt.

Quellen und weitere Informationen:

Reihe 1: Fei-Fei Li · Daphne Koller · Regina Barzilay · Joy Buolamwini · Timnit Gebru · Rediet Abebe · Latanya Sweeney

Reihe 2: Margaret Mitchell · Cynthia Breazeal · Yoky Matsuoka · Ayanna Howard · Rana el Kaliouby · Anca Dragan · Raia Hadsell

Reihe 3: Daniela Amodei · Mira Murati · Lila Ibrahim · Cassie Kozyrkov · Dame Wendy Hall · Huma Abidi · Inma Martinez

Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81, 1–15.

Gebru, T. (2021). Distributed AI Research Institute (DAIR). https://www.dair-institute.org

Li, F.-F. (2023). The Worlds I See: Curiosity, Exploration, and Discovery at the Dawn of AI. Flatiron Books.

Koller, D., & Friedman, N. (2009). Probabilistic Graphical Models: Principles and Techniques. MIT Press.

Barzilay, R. et al. (2019). A deep learning mammography-based model for improved breast cancer risk prediction. Radiology, 292(1), 60–66.

Sweeney, L. (2002). k-Anonymity: A model for protecting privacy. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 10(5), 557–570.

Mitchell, M. et al. (2019). Model Cards for Model Reporting. Proceedings of the Conference on Fairness, Accountability, and Transparency, 220–229.

Stanford University. (2024). AI Index Report 2024. Stanford Institute for Human-Centered Artificial Intelligence.

Abebe, R. et al. (2020). Roles for computing in social change. Proceedings of the Conference on Fairness, Accountability, and Transparency, 252–260.