©PeterAdamik

02 Mai 2025

"Vertrauenswürdige KI ist nicht nur ein technischer Standard, sondern ein Gesellschaftsvertrag. Er kann nur aufgebaut werden, wenn Alle mit am Tisch sitzen."

Künstliche Intelligenz verändert die Art und Weise, wie Unternehmen neue Talente rekrutieren, rapide - sie verspricht schnellere, gerechtere und effizientere Einstellungsprozesse. Doch was passiert, wenn diese Systeme hochqualifizierte Kandidaten übersehen oder bestehende Vorurteile verstärken, anstatt sie zu beseitigen?

Genau das untersucht Paksy Plackis-Cheng, Founder, impactmania / Chief Strategy Officer & Co-Founder, Staex. Als Teil des von der EU finanzierten FINDHR-Netzwerks arbeitet sie mit Unternehmen, politischen Entscheidungsträgern und der Zivilgesellschaft zusammen, um zu bewerten, wie KI bei der Personalbeschaffung eingesetzt wird - und wo sie versagt. In einem Interview mit #ai_berlin spricht sie über die Risiken algorithmischer Einstellungen, die Kluft zwischen europäischer KI-Politik und -Praxis und darüber, warum vertrauenswürdige KI nicht nur eine technische, sondern auch eine gesellschaftliche Herausforderung ist.

Ihre Forschung zeigt, dass KI-gesteuerte Einstellungen oft nicht so objektiv oder effizient sind, wie die Unternehmen behaupten. Gab es einen entscheidenden Moment in Ihren Studien - vielleicht ein bestimmtes Ergebnis oder ein Gespräch -, der Ihnen das Ausmaß der Herausforderung vor Augen geführt hat?

Die Vorstellung, dass KI die Leistungsgesellschaft gewährleistet, ist ein Irrglaube. Ich glaube zwar, dass KI das Potenzial hat, ein System zu unterstützen, in dem der Aufstieg auf individuellen Fähigkeiten und Leistungen beruht, aber so weit sind wir noch nicht. Bei Stresstests mit KI-Systemen haben wir festgestellt, dass bei menschlichen Empfehlungssoftwares, z. B. bei der Einstellung von Bewerbern mit den wichtigsten Qualifikationen und Erfahrungen für eine Stelle, die besten Kandidaten (Kategorie A) manchmal zugunsten der am wenigsten geeigneten Kandidaten (Kategorie C) abgelehnt wurden.

„Vertrauenswürdige KI made in Europe“ ist ein wichtiges Ziel der EU-Politik. Ihre Untersuchungen zeigen jedoch, dass viele Unternehmen noch weit davon entfernt sind, KI bei der Einstellung verantwortungsbewusst einzusetzen. Wo sehen Sie die größte Lücke zwischen Anspruch und Umsetzung?

Das ist eine komplexe Angelegenheit, die von vielen Faktoren beeinflusst wird. Viele Unternehmen gehen davon aus, dass sie einfach eine KI-Plattform kaufen und einsetzen können, und das war's. In Wirklichkeit wurden die meisten KI-Tools in den USA entwickelt. Selbst diejenigen, die in der EU entwickelt wurden, stützen sich oft auf große Sprachmodelle (LLM) aus den USA. Diese Systeme werden dann mit den Daten Ihres Unternehmens trainiert, die unvollständig, verzerrt oder voreingenommen sein können. Die Qualifikation der begehrtesten Arbeitskräfte von vor 5 Jahren ist wahrscheinlich nicht repräsentativ für die heutigen. Das System trifft seine Entscheidungen auf der Grundlage falscher Daten. Dann lernt es aus fehlerhaften Ergebnissen, und so geht es weiter. Laufende Systemtests und -bewertungen sind erforderlich, um die Gültigkeit der Ergebnisse zu gewährleisten. In unserem ersten Bericht haben wir eine Reihe von Empfehlungen für Unternehmen und politische Entscheidungsträger entwickelt. Dies ist ein Ausgangspunkt, um KI genauer und damit nutzbringender einzusetzen.

Das EU-KI-Gesetz stuft KI-gestützte Einstellungsinstrumente als Hochrisikotechnologie“ ein. Glauben Sie, dass diese Einstufung angemessen ist, oder gibt es Grauzonen, in denen Unternehmen die Regulierung umgehen könnten?

Jedes System, das für „menschliche Empfehlungen“ verwendet wird, gilt nach dem EU-KI-Gesetz als „hochriskant“, da es sich direkt auf den Lebensunterhalt einer Person auswirken kann. Die Suche, das Screening und die Auswahl von Menschen geschieht bei der Personalbeschaffung, aber (wird) auch geschehen, wenn Sie sich für eine Schule bewerben, eine Wohnung mieten, Darlehen oder Zuschüsse beantragen, Ihren Platz auf einer medizinischen Warteliste beeinflussen usw. 

Deshalb brauchen wir strenge Kontrollen und Ausgleiche. KI muss mit menschlicher Aufsicht gepaart werden - mit Menschen, die ihre Entscheidungen überprüfen und anfechten können. Wie wir in der Praxis gesehen haben, haben sogar Regierungen ihre Bürger aufgrund von Ungenauigkeiten im System falsch eingestuft. Und oft hat der Einzelne keine Möglichkeit zu erkennen, dass dies geschehen ist. Die niederländische Steuerbehörde verwendete einen selbstlernenden Algorithmus, der 26.000 Eltern fälschlicherweise des Betrugs bezichtigte. Die Folgen waren verheerend: Die Betroffenen litten unter schweren psychischen und physischen Gesundheitsproblemen, eine Person starb durch Selbstmord, viele verloren ihren Arbeitsplatz und ihr Zuhause, und 1.115 Kinder wurden gewaltsam aus ihren Familien entfernt. Der Algorithmus hatte gelernt, Faktoren wie „doppelte Staatsangehörigkeit“ und „geringes Einkommen“ mit einem höheren Betrugsrisiko in Verbindung zu bringen - was bestehende Vorurteile widerspiegelte und verstärkte. Selbst als die menschlichen Kosten offensichtlich wurden, schoben die Behörden weiterhin die Verantwortung ab und versteckten sich hinter den Entscheidungen des Algorithmus. Das KI-Gesetz ist dazu da, uns vor diesen schwerwiegenden Ungerechtigkeiten zu schützen, selbst wenn sie von Regierungen begangen werden. 

In unseren eigenen Experimenten, die einen Einstellungsprozess simulierten, bewerteten wir dieselben Lebensläufe sowohl manuell als auch durch ein KI-Einstellungssystem. Unser Team überprüfte die Empfehlungen eines menschlichen Personalleiters und verglich sie mit denen der KI. Während die menschlichen Entscheidungen (sogar die voreingenommenen) erklärt werden konnten, gaben die meisten kommerziellen KI-Systeme - mit Ausnahme einiger Open-Source-Modelle - keinen Aufschluss darüber, warum bestimmte Kandidaten ausgewählt wurden. Beunruhigenderweise stellten wir fest, dass einige Lebensläufe ohne relevante Zertifizierungen oder Erfahrungen gegenüber solchen empfohlen wurden, die die Stellenanforderungen eindeutig erfüllten.

Wenn sich Menschen auf eine Stelle bewerben, wissen sie oft nicht, ob ihre Bewerbungen von einem Menschen oder einem KI-System bewertet werden - oder in welchem Umfang. Stellensuchende haben kaum Möglichkeiten, herauszufinden, ob sie ein Spitzenkandidat waren, der zugunsten eines weit weniger qualifizierten Bewerbers übergangen wurde, wie wir bei unseren Tests festgestellt haben. Dieser Mangel an Transparenz ist nicht nur bei KI festzustellen, aber KI-Systeme verstärken das Problem in großem Umfang. Unabhängig davon, ob es Vorschriften gibt oder nicht, bleibt die Einstellung ein kostspieliger Prozess - vor allem, wenn die falsche Entscheidung getroffen wird. Unternehmen, die in mangelhafte oder undurchsichtige Systeme investieren, riskieren, dass ihnen Top-Talente entgehen, und das kostet nicht nur sie selbst, sondern die Gesellschaft als Ganzes. Qualifizierte Menschen, die im Abseits stehen, sind eine Ineffizienz, die wir uns nicht leisten können. Um KI wirklich nutzbringend zu machen, müssen wir sie genauer, transparenter und verantwortlicher machen.

Viele Unternehmen setzen auf KI-Einstellungstools, um Kosten zu senken und die Effizienz zu steigern. Ihre Untersuchungen legen jedoch nahe, dass diese Systeme oft hochqualifizierte Talente übersehen. Können Sie einen konkreten Fall schildern, in dem ein KI-System einen starken Kandidaten falsch eingeschätzt hat - und welche Folgen das für Arbeitgeber und Arbeitssuchende hatte?

Eine Untersuchung des ifo Instituts (Leibniz-Institut für Wirtschaftsforschung an der Universität München) hat ergeben, dass 87 % der Familienunternehmen in Deutschland mit einem Mangel an Arbeitskräften zu kämpfen haben. Gleichzeitig bleiben Millionen von qualifizierten, gut ausgebildeten und motivierten Menschen vom Arbeitsmarkt ausgeschlossen. Allein in Deutschland fehlen fast 2 Millionen Arbeitskräfte - und 2,5 Millionen Menschen sind aktiv auf Arbeitssuche. Auch wenn es keine perfekte Eins-zu-eins-Übereinstimmung zwischen verfügbaren Stellen und Arbeitssuchenden gibt, kann KI eine Schlüsselrolle bei der Überbrückung der Lücke spielen, indem sie übertragbare Fähigkeiten identifiziert, Umschulungsmaßnahmen unterstützt und eine intelligentere Suche nach Talenten ermöglicht.

Im Rahmen der beiden Forschungsprojekte haben wir mit Hunderten von Arbeitssuchenden gearbeitet - viele von ihnen sind gut ausgebildet, erfahren und arbeitswillig. Eines der auffälligsten Ergebnisse war die unverhältnismäßige Auswirkung der „internationalen Ausbildung“ auf die Bewertung von Lebensläufen in KI-Screening-Tools. Lebensläufe mit internationalen Abschlüssen wurden erheblich benachteiligt, 80 % erhielten eine schlechtere Bewertung.

Wir trafen auf zahlreiche Bewerber mit eindeutigen Qualifikationen für die Stellen, auf die sie sich beworben hatten - viele von ihnen hatten Hunderte von Bewerbungen eingereicht. Sie wurden oft mit Schweigen, sofortigen Ablehnungen oder automatischen Antworten, die um 23.00 Uhr verschickt wurden, konfrontiert - eindeutige Anzeichen dafür, dass ihre Bewerbungen nie richtig geprüft wurden. Dies ist nicht nur ein Versagen der Einstellungssysteme, sondern auch ein Verlust an wertvollen Talenten für die Gesellschaft. Anstatt KI zu nutzen, um qualifizierte Kandidaten herauszufiltern, müssen wir damit beginnen, Menschen aktiv mit Chancen zu verbinden. Das Ziel sollte nicht Ausgrenzung, sondern Inklusion sein - Menschen mit Positionen zusammenzubringen, zu denen sie beitragen und sich weiterentwickeln können.

Berlin stand im Mittelpunkt Ihrer Forschung, aber Sie haben auch mit Experten aus ganz Europa zusammengearbeitet. Wie sieht der deutsche Ansatz in Bezug auf KI bei der Einstellung von Mitarbeitern im Vergleich zu anderen EU-Ländern aus? Gibt es Best Practices, von denen Berlin - oder Deutschland als Ganzes - lernen könnte?

Diese mehrjährige Untersuchung wurde von der Europäischen Union initiiert und über das FINDHR-Netzwerk in Zusammenarbeit mit sieben Ländern durchgeführt. In einigen europäischen Ländern sind sich die Regierungsbeamten überhaupt nicht bewusst, dass Unternehmen bei der Einstellung KI-Systeme einsetzen. Auch die Ausgereiftheit dieser Tools ist sehr unterschiedlich - vom einfachen Abgleich von Lebensläufen und Stellenbeschreibungen mit Schlüsselwörtern bis hin zu fortschrittlicheren Systemen, die Bewerber durch Videointerviews bewerten.

In Deutschland haben wir eine Reihe von global agierenden Unternehmen aus verschiedenen Branchen befragt: adidas, Siemens, Deutsche Telekom. Alle nutzen oder planen die Einführung von KI-Tools für die Personalbeschaffung. Applicant Tracking Systems (ATS) - die Lebensläufe organisieren, sortieren und verwalten - sind bereits weit verbreitet. Insgesamt neigen deutsche Unternehmen dazu, KI-Einstellungstools mit Bedacht einzusetzen. Ist ein System jedoch erst einmal implementiert, ist es nicht ungewöhnlich, dass es an einen Praktikanten oder Nachwuchskräfte mit minimaler Schulung und ohne klare Anleitung zur Bewertung der laufenden Leistung des Systems übergeben wird.

Im Gegensatz dazu haben die USA, wo die Talenttechnologie (Tools für die Akquise, Entwicklung, Verwaltung und Bindung von Talenten) ihren Ursprung hat und am weitesten verbreitet ist, die KI-Einstellung auf eine andere Ebene gehoben. Einige Unternehmen verlangen nicht einmal einen Lebenslauf. Stattdessen beziehen sie Bewerberdaten aus Social-Media-Profilen und Datenbanken von Drittanbietern, die persönliche und berufliche Informationen enthalten, z. B. Sicherheitsüberprüfungen oder Zertifizierungen.

Dieser krasse Unterschied macht deutlich, warum das EU-KI-Gesetz für die Bürgerinnen und Bürger wichtig ist: Es führt Schutzmaßnahmen ein, die in den USA weitgehend fehlen. Der Schutz der Privatsphäre berücksichtigt jedoch nicht die riesige Menge an persönlichen Daten, die wir jeden Tag freiwillig veröffentlichen und hochladen. Dies ist ein anderes, aber dringendes Problem, mit dem ich bei meiner Arbeit täglich zu tun habe. Während sich die öffentliche Diskussion derzeit auf KI konzentriert, plädiere ich nachdrücklich für eine parallele Diskussion über Daten. Sichere, genaue und zuverlässige Daten sind sogar noch wichtiger - sie sind der Treibstoff für die KI. Ohne vertrauenswürdige Daten kann kein KI-System sinnvolle Ergebnisse liefern.

Sie arbeiten mit Unternehmen, politischen Entscheidungsträgern und Organisationen wie AlgorithmWatch zusammen. Wo sehen Sie die größten Spannungen zwischen diesen Akteuren, wenn es darum geht, eine verantwortungsvolle KI bei der Rekrutierung sicherzustellen?

Dies ist die eigentliche Hürde. Wir werden die kulturellen, wirtschaftlichen und gesellschaftlichen Herausforderungen nicht lösen, wenn wir nicht anfangen, uns gegenseitig als gleichberechtigte Akteure zu behandeln. Die Leute denken oft, dass es bei KI um Technik geht - aber in Wirklichkeit geht es um uns. Da ich in verschiedenen Sektoren und Branchen gearbeitet habe, weiß ich die Bandbreite der Herausforderungen und Ziele zu schätzen, die jeder mitbringt. Gerade jetzt, in einer geopolitischen und marktwirtschaftlichen Achterbahnfahrt, müssen wir uns bemühen, über den Tellerrand hinauszuschauen und zu verstehen, dass wir - ob wir nun ein Unternehmen mit Verantwortung gegenüber den Aktionären leiten, im Namen der Menschen sprechen, die uns gewählt haben, oder für Sicherheit, Gesundheit und Chancen für die Allgemeinheit sorgen - gemeinsam auf dieser Reise sind. Niemand wird ohne die Unterstützung der anderen sicher und erfolgreich ankommen. 

Mit dieser gemeinsamen Realität und dem Geist der Zusammenarbeit sind wir an unsere Forschung herangegangen. Wir haben ein vielfältiges Team zusammengestellt und die Einstellung von KI-Mitarbeitern absichtlich aus verschiedenen Perspektiven untersucht. Um den Arbeitsmarkt wirklich zu verstehen, wurden wir von KI-Experten aus Technologieunternehmen und Nichtregierungsorganisationen beraten, arbeiteten direkt mit Hunderten von Arbeitssuchenden zusammen, kooperierten mit Personal- und Talentakquisitionsleitern und gingen Partnerschaften mit KI-Startups ein. Je mehr wir uns sektor- und branchenübergreifend vernetzen, desto besser verstehen wir die Prioritäten der anderen - und warum bestimmte Themen für sie nicht verhandelbar sind. Im Moment sind wir zu sehr auf uns allein gestellt. Es ist an der Zeit, die Dinge aufzurütteln.

Und schließlich: Wie sieht die Zukunft der „vertrauenswürdigen KI made in Europe“ im Zusammenhang mit der Personalbeschaffung aus? Welche Diskussionen müssen wir jetzt führen, um sicherzustellen, dass KI am Arbeitsplatz wirklich verantwortungsvoll ist?

Wir brauchen ein gemeinsames Verständnis davon, was „vertrauenswürdige KI made in Europe“ bedeutet - für Bewerber, Arbeitnehmer und Arbeitgeber gleichermaßen. Wir alle haben eine Meinung zu KI, aber viele von uns sind davon betroffen, ohne es zu wissen; nur durch einen Dialog mit allen Beteiligten und durch rigorose Tests dieser Systeme können wir verstehen, wie sich diese Systeme tatsächlich verhalten. Das Testen von KI-Tools war für uns eine Herausforderung, da wir nur Open-Source-Systeme testen konnten. Wir brauchen eine kontinuierliche Beteiligung von Interessengruppen aus allen Sektoren und Branchen - Menschen, die ihre beruflichen und persönlichen Erfahrungen einbringen. Auch über kulturelle Grenzen hinweg müssen sie an der Optimierung eines Systems mitwirken, das die Fähigkeiten und Möglichkeiten der Menschen fördern könnte. Europa ist in der besten Position, um eine Führungsrolle zu übernehmen, denn wir legen Wert auf eine gesunde Spannung zwischen den verschiedenen Interessengruppen. Vertrauenswürdige KI ist nicht nur ein technischer Standard, sondern auch ein Gesellschaftsvertrag. Und der kann nur aufgebaut werden, wenn alle Beteiligten mit am Tisch sitzen.

 

*Dieses Interview wurde auf Englisch geführt und durch die Redaktion übersetzt.