Feministische Künstliche Intelligenz – ein Begriff, der viel mehr als nur ein technisches Konzept ist. Es geht um die Frage, wie KI-Systeme die Welt, in der wir leben, widerspiegeln und formen, und ob wir es schaffen, Werte wie Gleichheit, Gerechtigkeit und Freiheit in ihre Entwicklung zu integrieren. FemAI, ein innovatives Berliner Unternehmen unter der Leitung von CEO Alexandra Wudel, nimmt genau diese Herausforderung an. Mit ihrem Team arbeitet sie daran, KI nicht nur intelligenter, sondern auch ethischer und inklusiver zu machen.
Im Interview mit Frau Wudel sprechen wir über die Vision und Ziele von FemAI, die Chancen und Herausforderungen einer feministischen KI und die konkreten Schritte, die notwendig sind, um Diskriminierung in KI-Systemen zu verhindern. Außerdem gibt sie spannende Einblicke in die Zukunft ihrer Arbeit, die sowohl auf KI-Zertifizierungen als auch auf Bildung und Sensibilisierung der Gesellschaft setzt.
Frau Wudel, mit „FemAI“ arbeiten Sie an feministischer KI. Wie definieren Sie diesen Ansatz und wie unterscheidet er sich von herkömmlichen KI-Entwicklungsansätzen? Welche Chancen bietet uns feministische KI?
Feministische KI ist ein evidenzbasierter Zukunftsforschungsprozess, in dem Werte in KI Systemen gefestigt werden. Feministische Künstliche Intelligenz (FAI) untersucht, wie feministische Werte wie Freiheit, Gleichheit und Gerechtigkeit die KI-Entwicklung beeinflussen können, und stellt die männerdominierten, westlich geprägten Vorurteile in Frage, die derzeit KI-Systeme prägen. In unserer jüngsten Forschungsarbeit, die wir am 08. März 2025 in Berlin vorgestellt haben, untersuchen wir die Kernprinzipien der FAI, ihre Rolle bei der Aufhebung von Machtstrukturen und ihren Vergleich mit anderen Rahmenwerken wie Umwelt-, Sozial- und Governance-Kriterien (ESG). Dort stellen wir auch ein KI-Tool vor, das für uns schon jetzt einen Orden verdient.
Als CEO von FemAI setzen Sie sich für eine menschenzentrierte Entwicklung von KI ein. Was sind die größten Herausforderungen bei der Umsetzung dieses Ansatzes in der Praxis?
Wir haben uns gegen ein starres Zertifizierungsmodel entschieden, da wir aus den Beratungen der KI-Gesetzgebung die Gefahr der Rückwärtsregulierung erkannt haben und KI-Zertifizierung deshalb neu positionieren wollen. Die größte Herausforderung besteht gerade darin, die richtigen Use Cases auszuwählen, die Skalierbarkeit darzustellen und gleichzeitig den Fokus zu behalten. Da wir ab April 2025 in unsere nächste Fundraising-Runde starten, ist das Budget für die Umsetzung unserer Arbeit in die Praxis ein kritischer Meilenstein.
Sie haben früh erkannt, dass Künstliche Intelligenz eine geschlechtsspezifische Dimension hat. Welche Maßnahmen sollten Ihrer Meinung nach ergriffen werden, um Diskriminierung durch KI zu verhindern?
Zuerst sollten wir Diskriminierung in KI sichtbarer machen. Deshalb auch unser Ansatz der Zertifizierung, also der Belohnung von KI-Tools, die sich mit diskriminierungsfreien Ansätzen beschäftigt haben. Nach wie vor ist der Begriff von “Bias” zu selten Teil von Planungs- und Entwicklungsprozessen im KI-Zeitalter, obwohl er allgegenwärtig ist. Deshalb halten wir regelmäßig Vorträge z.B. bei Organisationen wie Google, der EU-Delegation in Washington, KPMG uvm, um darüber aufzuklären. Die KI-Gesetzgebung hat einige gute Regelungen getroffen, wie z.B. rund um die sogenannten diversen Datensätze (Annex XI Section 1(2)(c) of the EU AI Act). Leider reicht der EU AI Act bei weitem nicht aus und vor allem die Rechtsdurchsetzung ist für uns mit Fragezeichen versehen. KI-Systeme umfassen mehr als Algorithmen und Entwicklungsteams. Deshalb forschen wir im Think Tank von FemAI zu den Themen AI Literacy und diversen Datensätzen.
Sie sprechen oft über die ethischen Herausforderungen der KI, zum European AI Act haben Sie mit FemAI ein Positionspapier mit Action Points entworfen. Glauben Sie, dass die derzeitigen Diskussionen und Regulierungen ausreichen, um die Gesellschaft nachhaltig vor Risiken durch KI zu schützen?
Nein, natürlich nicht. Alle Gesetze müssen ins KI-Zeitalter übersetzt werden. Das Anti-Diskriminierungs-Gesetz (AGG) ist zu wenig auf Mehrfachdiskriminierung ausgelegt (also wenn ein Mensch aufgrund seiner Herkunft und seiner Sexualität diskriminiert wird), wobei es besonders im Fall der intersektionalen Diskriminierung zu gravierenden Diskriminierungsfällen kommen. Die DSGVO und der EU AI Act stehen u.a. im Kontext diverser Datensätze in Konflikt zueinander. Abgesehen von den europäischen und nationalen Gesetzen sollten wir nicht aus den Augen verlieren, dass wir in einem globalen Wettbewerb globale Regeln benötigen. Der Digital Global Compact (DGC) ist für mich ein wegweisendes Projekt, dem es jedoch an Verbindlichkeit fehlt.
Sie haben in der Vergangenheit an Richtlinien für das Auswärtige Amt und die Vereinten Nationen gearbeitet. Welche Unterschiede sehen Sie in der internationalen Zusammenarbeit bei der Entwicklung ethischer KI-Standards?
Die meisten KI-Standards, die ich konsultiert habe, haben die Notwendigkeit verschiedener Perspektiven erkannt. Leider beobachte ich jedoch noch viel zu häufig, dass homogene Gruppen wesentliche Säulen von KI Governance übersehen. Das kann zu gefährlichen blinden Flecken führen. Zum Beispiel war ich sehr überrascht, dass der GDC in seiner damaligen Form im Dezember 2023 keine Regelung zum Einsatz von autonomen Waffensystemen enthielt. Das wurde schlichtweg übersehen. Deshalb ist es wichtig, Erfahrung und diverse Perspektiven in der Entwicklung von KI Governance Projekten zu perfektionieren. Die Arbeit im Deutschen Bundestag zur KI-Strategie hat mir besonders gut gefallen, da dort ein mehrmonatiger Prozess mit umfangreichen Anhörungen durchgeführt wurde. Das Ergebnis habe ich aufgrund meines Austritts, um mich mit voller Aufmerksamkeit FemAI zu widmen, nicht mehr zu Gesicht bekommen. Dieser Schritt zeigt aber auch, dass ich müde bin von Konsultationen wie diesen, die dann in der theoretischen Ebene stecken bleiben. Mich interessiert, wie effektiv sie umgesetzt werden, und daran scheitert es häufig.
Die von Cambridge Analytica genutzten Methoden in der Trump-Kampagne 2016 waren für Sie der Anlass, sich erstmals mit KI zu beschäftigen. Jetzt stehen wir erneut kurz nach einer US-Präsidentschaftswahl, vor kurzem haben Bundestagswahlen stattgefunden. Wie bewerten Sie heute die Rolle von KI in politischen Wahlkämpfen und der Meinungsbildung? Sehen Sie Unterschiede im Einfluss von KI auf politische Wahlen zwischen den USA und Europa?
Zu dieser Frage würde ich am liebsten eine 45-minütige Keynote halten. Als Teil des Wahlkampf Teams der jüngsten deutschen Abgeordneten 2021 habe ich nicht nur theoretisch, sondern auch praktisch die Bedeutung von Social Media im Wahlkampf mitbekommen. Ich habe ihre Kampagne geleitet. Seitdem setzte ich mich für Digitalpolitik ein. KI muss massenfähig werden. Derzeit schürt KI Ängste statt Zukunftsutopien und das wird diesem Werkzeug nicht gerecht. In den richtigen Händen können wir damit sehr viel Gutes tun. Deshalb auch unsere Entscheidung, “gute KI” mit unserer Marke FemAI auszuzeichnen, anstatt den missbräuchlichen Einsatz weiter zu nähren. Ich hoffe, die Politik nimmt KI und die anstehende Revolution oder Transformation (es wird sich viel verändern, das steht fest) ernst.
Nach drei Jahren haben Sie sich im September aus dem Deutschen Bundestag verabschiedet. Wieso ist jetzt der richtige Zeitpunkt, sich voll und ganz auf FemAI zu konzentrieren, und was sind die nächsten Schritte für Ihren Think Tank?
Danke für diese Frage! FemAI ist durch eine Transformation gegangen. Immer wieder haben wir uns gefragt: “Wie können wir unseren Impact maximieren?” Die Entscheidung steht nun seit Anfang März fest: Wir werden FemAI aufteilen und in zwei Märkten agieren: in der KI-Zertifizierung und der KI-Bildung. Beide Geschäftsbereiche werden durch unseren Think Tank mit Forschungsergebnissen gespeist. Meine Zeit im Deutschen Bundestag war eine der lehrreichsten Erfahrungen meines bisherigen Arbeitslebens und ich bin dankbar für das Vertrauen, das mir entgegengebracht wurde - insbesondere von der Bundestagsverwaltung, die mir viel Verantwortung gegeben hat. Ich konnte dort Vertrauen aufbauen und unsere Forschungsarbeit soweit fortführen, um nun, nach ausgiebiger Analyse in den Wintermonaten und Beobachtung des politischen Weltgeschehens, mit einer neuen Struktur anzutreten.
Vielen Dank an das Team für die etlichen Stunden Workshops und unser einzigartiges externes Netzwerk, dass uns Tag und Nacht zur Seite stand.
In diesem Zuge haben wir übrigens auch den Begriff Feminismus in den globalen Kontext eingeordnet und eine “new era of feminism” angedeutet.
Sie wurden mit dem Preis „AI Person of the Year 2024“ ausgezeichnet. Welche Bedeutung hat diese Ehrung für Sie und welche Botschaft möchten Sie mit Ihrer Arbeit in der KI-Welt senden?
Glauben Sie mir, als ich davon gehört habe, musste ich den Text noch dreimal lesen, bevor ich es glauben konnte. Zur Einordnung: Ich bin in einem 1200-Einwohner-Dorf aufgewachsen, habe mit 14 Teller gewaschen und nie daran geglaubt, mal eine Auszeichnung wie diese zu erhalten. Nach den ersten Tagen habe ich dann große Dankbarkeit verspürt; ich war stolz. Gleichzeitig sehe ich diesen Preis auch als eine Verantwortung, größtmöglichen Impact zu generieren. Seitdem durfte ich 8 weitere Awards entgegennehmen und war sogar auf Zeitungscovern. Für all das bin ich sehr dankbar, sehe aber auch die Notwendigkeit, diese Aufmerksamkeit in unser Geschäftsmodell zu übersetzen, damit wir tatsächlich in die skalierbare Umsetzung kommen. Mit unserer Kooperation mit Tokenize.it haben wir eine Methode gefunden, die es der Zivilbevölkerung erlaubt, in FemAI zu investieren, um Privilegien aufzubrechen. Diese Nachricht möchte ich senden: Wir alle können KI und dürfen bei der Entwicklung mitreden!
Warum sehen Sie Berlin als geeigneten Ort, um an feministischer KI zu arbeiten? Welche Potenziale birgt die Stadt für Ihre Arbeit und die Weiterentwicklung von ethischen KI-Lösungen?
In Berlin gefällt mir besonders die Vielfalt und die Kreativität. Berlin hat Geschichte. Berlin ist ein Ökosystem, dem wir nun auch immer mehr beitreten dürfen. Berlin ist für viele ein Symbol für Freiheit.
Für mich ganz persönlich ist Berlin auch ein Teil meiner Familie. Mein Vater hat hier gelebt, bevor er - viel zu früh - verstarb. Meine Oma Doris wohnt immer noch hier. Nach ihr wird auch unsere AI Zertifizierung Plattform genannt: DORIS 1.0.
Vielen Dank für das Gespräch.
HInweis: Dieses Interview wurde auf Deutsch geführt und auf Englisch übersetzt.