Mit dem AI Act wird vertrauenswürdige Künstliche Intelligenz in der Europäischen Union erstmalig in der Breite auf ein regulatorisches Fundament gesetzt. Das TÜV AI.Lab arbeitet daran, Prüfszenarien und Methoden zur Prüfung und Zertifizierung von KI zu entwickeln und die TÜV-Unternehmen zu den führenden Prüforganisationen für KI zu machen. Entstanden 2021, zunächst unter dem Dach des TÜV-Verbandes, wurde das TÜV AI.Lab 2023 als Joint Venture ausgegründet.
Nach ihrer langjährigen Tätigkeit als Senior Policy Advisor im Bundeskanzleramt übernahm die ausgewiesene Politik- und Digitalexpertin Franziska Weindauer im November 2023 die Leitung des KI-Projektlabors. Zeit für ein Gespräch über die Zertifizierung von KI-Lösungen in der Praxis, den Einfluss des AI Acts auf das Ökosystem und die diversen Projekte des TÜV AI.Labs.
Hallo Frau Weindauer, vielen Dank, dass Sie sich Zeit für das Interview nehmen. Sie haben im November erst den CEO-Posten des TÜV AI.Labs übernommen. Was steht für Sie als Erstes an? Welche Schwerpunkte wollen Sie setzen?
Die enorme Dynamik in der Regulierungslandschaft, vor allem im Hinblick auf den gerade beschlossenen AI Act, gibt uns allen nicht viel Zeit, deswegen sind wir froh, seit November auch richtig als GmbH am Start zu sein. Wir stellen fest, dass auch die technologische Entwicklung noch weiter beschleunigt, noch rasanter voranschreitet. Sehen Sie sich an, in welchem enormen Tempo neue Innovationen auf den Markt kommen, gerade erst die Veröffentlichung von Sora und Claude 3, aber auch ganz spezifische Anwendungen in den einzelnen Sektoren. Dieses hohe Tempo setzt auch für uns im TÜV AI.Lab den Takt.
Für die unmittelbare Zukunft konzentrieren wir uns zunächst auf die Übersetzung der Anforderungen des AI Acts für Hochrisiko-Anwendungen, und zwar in den Bereichen, in denen die Regulierung nun zusätzlich zu den bestehenden Regelungen gilt; also zum Beispiel medizinische Geräte oder intelligente Maschinen.
In diesen Bereichen werden schon jetzt Produkte zertifiziert, die KI-Komponenten enthalten, diese müssen zukünftig zusätzlich den Vorgaben des AI Acts entsprechen. Daneben sind wir auch dabei, systematische Prüfkriterien und -Verfahren für die Hochrisiko-Anwendungen zu entwickeln, die vom AI Act erstmals erfasst werden, also etwa HR-Anwendungen sowie der Einsatz von KI im Bildungs- oder Verwaltungsbereich.
Das TÜV AI.Lab will Prüfszenarien und Methoden zur Prüfung und Zertifizierung von KI entwickeln. Wie sieht das in der Praxis aus? Welche Aspekte sind hier im Fokus, wenn es um KI-Standards geht?
Wir sehen unsere praktische Aufgabe darin, die rechtlichen Anforderungen und die sich aktuell in der Entwicklung befindlichen Standards aufzuarbeiten und auf die konkrete Anwendung herunterzubrechen. Hier geht es vor allem darum, zu verstehen, welche Vorgaben im Detail gelten und wie wir diese konkret in die Praxis übersetzen.
Die besondere Herausforderung bei der KI besteht darin, dass es nicht möglich ist, sogenannte Ausfallwahrscheinlichkeiten zu berechnen, wie sie in anderen traditionellen Prüfbereichen der TÜV-Unternehmen im Einsatz sind. Zudem haben wir keine Statistik, wenig Erfahrungswerte. Bei einer klassischen technischen Anwendung ist das alles gegeben. Da kann ich fragen und klar beantworten: Wie wahrscheinlich ist es, dass ein Kabel reißt oder ein Dampfkessel explodiert? Solche Berechnungen kann man auf KI-Systeme nicht so einfach übertragen. Hier sind wir gefordert, komplett neue Ansätze und Vorgehensweisen zu entwickeln. In der Praxis geht es um die Frage: Wie gut muss das jeweilige KI-System sein und wie kann ich das konkret messen?
Wie wird der AI Act der EU Ihrer Meinung nach den KI-Sektor in Europa verändern, auch im internationalen Vergleich?
Der AI Act legt erstmals einheitlich fest, welche Anforderungen KI-Anwendungen erfüllen müssen. Die Regulierung schreibt unter anderem vor, dass KI-Anwendungen in Hochrisikobereichen genau, robust und cybersicher sein müssen und dass Risiken für die Sicherheit, für die Gesundheit und für die Grundrechte mitigiert werden müssen. Damit wird ein grundlegender Standard für alle hochrisikoklassifizierten KI-Systeme eingeführt. Dieser Standard wird sich aber auch signifikant auf alle KI-Systeme auswirken, die in Bereichen mit geringerem Risiko im Einsatz sind.
Ich bin der Ansicht, dass dieser einheitliche Goldstandard eine globale Signalwirkung haben wird. Im Idealfall sind wir auf internationaler Ebene Vorreiter und Vorbild für andere in der Entstehung befindliche Regelwerke. Innerhalb Europas sind die Anforderungen zudem jetzt klar definiert – alle Beteiligten wissen, worauf sie sich einstellen und woran sie sich orientieren müssen. Die gemeinsame europäische Verordnung ist das Fundament für die Entwicklung harmonisierter Standards. Ich erwarte, dass es eine Vielzahl von Tools, Angeboten und Handreichungen geben wird, die Unternehmen dabei unterstützen werden, KI sinnvoll einzusetzen – und zwar von Anfang an richtig.
Sie sagen, dass "vertrauenswürdige KI ein europäischer USP" sein soll. Wie erreichen wir dieses Ziel und wie sieht es mit unserer Wettbewerbsfähigkeit mit Staaten aus, die von KI-Regulierungen und Datenschutz eher wenig halten?
Ich bin überzeugt: Qualität setzt sich durch. Es gibt einen Markt, einen Bedarf für vertrauenswürdige KI – auch weil das für die Anwenderinnen und Anwender elementar ist. Ich persönlich halte es auch für geboten, die Schutzinteressen der Bürgerinnen und Bürger, beispielsweise in Bezug auf ihre Sicherheit und ihre Grundrechte, durchzusetzen.
Und klar, das Innovationstempo in Europa könnte in manchen Bereichen höher sein. Dafür machen wir es von Anfang an richtig. Auch wenn wir nicht immer die Ersten sind, entwickeln wir nachhaltig sinnvolle und qualitativ hochwertige Produkte, von denen kein signifikantes Risiko ausgeht. Langfristig Qualität und Sicherheit zu gewährleisten, ist aus meiner Sicht wichtiger, als immer auf der vordersten Welle zu schwimmen. Selbstverständlich müssen wir dabei aufpassen, den Anschluss nicht zu verpassen, deshalb dürfen wir in Deutschland bei der Umsetzung und bei der Durchsetzung der KI-Verordnung nicht übertreiben. Denn es kommt eben nicht nur auf die Regulierung an, sondern auch darauf, wie man sie praxisgerecht umsetzt.
Die europäischen Nachbarstaaten sind hier oft deutlich pragmatischer unterwegs, ermöglichen dadurch mehr und erfüllen trotzdem die Rechtslage. Auch deswegen haben wir als TÜV AI.Lab an uns den Anspruch, pragmatische Lösungen zu entwickeln, die den Ansprüchen aller Beteiligten, also auch den Unternehmen, die im Wettbewerb bestehen müssen, gerecht werden.
Laut einer Studie der Industrie- und Handelskammer (IHK) hat sich der Einsatz von KI in Berliner Unternehmen im Vergleich zum letzten Jahr verdoppelt. Wie weit ist die deutsche Wirtschaft Ihrer Meinung nach mit dem Einsatz von KI?
Die Zahlen, auch die jährlich von der EU-Kommission erhobenen Zahlen zum Einsatz von KI in Deutschland und Europa, zeigen immer wieder deutlich, dass wir in Deutschland keine Spitzenreiter sind, ganz klar Nachholbedarf haben, auch in der Anwendung von KI. Diese Zahlen decken sich auch mit meinem persönlichen Gefühl und sind verknüpft mit dem gerade bereits Gesagten. Im privaten und vor allem im unternehmerischen Einsatz neuer Technologien machen wir in Deutschland es uns oft zu schwer, sehen zu viele Hürden und Risiken, sind zu sehr auf Fehlervermeidung bedacht. In anderen Ländern gibt es bislang mental eine größere Aufgeschlossenheit, etwas einfach mal auszuprobieren.
Aber mein Gefühl ist ebenfalls, dass ChatGPT vielerorts als Erweckungserlebnis gewirkt hat, dass Unternehmen jetzt verstärkt aktiv werden und dabei auch Tempo an den Tag legen. Deswegen habe ich die begründete Hoffnung, dass aus dieser Erfahrung heraus jetzt zügig weitere KI-Systeme und -Anwendungen ausprobiert und eingesetzt werden. Ich bin überzeugt, dass der Ressourcen- und Effektivitätsgewinn der KI für sich selbst spricht und so auch in Deutschland absehbar ein flächendeckender Einsatz assistierender KI zum Regelfall wird.
Wo sehen Sie die Hürden und Herausforderungen, die es zu überwinden gilt?
Die größte Hürde, die wir zeitnah überwinden müssen, ist die noch bestehende Unsicherheit in der praktischen Anwendung des AI Acts. Es ist jetzt die Aufgabe aller Akteurinnen und Akteure, so schnell wie möglich Klarheit darüber zu schaffen, wie die Umsetzung der Verordnung in der Praxis möglich ist und wie sie gestaltet werden soll. Hier geht es um harmonisierte Definitionen, Normen und Standards, die Voraussetzung für die Gestaltung der konkreten Prüfprozesse sind.
Eine zentrale Herausforderung für die Unternehmen, aber auch für alle anderen Akteurinnen und Akteure, ist die rasante technologische Entwicklung. Hier stellt sich einerseits die Frage, wie die deutschen Unternehmen wettbewerbsfähig bleiben oder werden, wie state-of-the-art KI-Anwendungen auch in Europa, in der Wissenschaft und Wirtschaft entwickelt und eingesetzt werden. Auch für uns als Prüfunternehmen ist das hohe Innovationstempo eine Herausforderung: Wie können wir sicherstellen, dass unsere Prüfverfahren auch kommende Entwicklungen integrieren? Wie prüfen wir Systeme, die sich permanent weiterentwickeln? Hier arbeiten wir bereits an konkreten Ansätzen, die das abbilden sollen.
Wir haben bereits in einem vorherigen Interview über das TEF-Health-Projekt gesprochen, an dem auch das TÜV AI.Lab beteiligt ist. Wie hat sich dieses entwickelt? Gibt es weitere Projekte, die bereits laufen oder in Planung sind?
Wir sind sehr zufrieden mit dem TEF-Health-Projekt. Besonders erfreulich ist, wie gut die Zusammenarbeit mit den Konsortialpartnern über Landesgrenzen hinweg funktioniert. Alle ziehen am gleichen Strang, um den gemeinsamen europäischen Markt voranzubringen. Als erstes Zwischenergebnis haben wir bereits im Januar ein Whitepaper zur Zertifizierung von KI in medizinischen Geräten veröffentlicht.
Neben dem TEF-Health-Projekt beteiligen wir uns aktuell an der Mission KI des Bundesministeriums für Digitales und Verkehr (BMDV), umgesetzt unter Federführung von Acatech. Die Mission KI ist ein umfangreiches Projekt im Bereich KI-Qualität und Trustworthiness. In diesem Projekt werden effektive Prüfkriterien und Prüfverfahren für vertrauenswürdige KI entwickelt und an konkreten, sektorübergreifenden Anwendungsfällen erprobt. Hier sind wir maßgeblich an einer Säule beteiligt, die daran arbeitet, einen KI-Qualitätsstandard zu entwickeln, der für Produkte im Niedrigrisiko-Bereich funktioniert, darüber hinaus aber auch adaptiert werden kann für Hochrisiko-Use-Cases in relevanten Sektoren.
Zudem sind wir gerade in Abstimmungen zu weiteren Projekten, in denen wir mit unserer Expertise zu verantwortungsvoller und ethischer KI sinnvoll unterstützen können.
Wie sehen Sie das Berliner KI-Ökosystem und welches Potenzial sehen Sie noch beim Thema Künstliche Intelligenz?
Das Berliner KI-Ökosystem ist super lebhaft und sehr innovativ. Wie die Stadt Berlin selbst vereint es absolut diverse Akteurinnen und Akteure, die wiederum durch einen unheimlich guten und starken Spirit miteinander verbunden sind. Aktuell nehme ich auch hier eine starke Beschleunigung wahr, das Ökosystem wächst und ist dabei sehr anschlussfähig an andere Systeme und auf jeden Fall offen für weitere Akteurinnen und Akteure.
Im Vergleich zu anderen Städten ist das Berliner KI-Ökosystem relativ dezentral, also bisher nicht klar gruppiert um eine*n zentrale*n Akteur*in oder Campus herum. Das ist sehr oft eine Stärke, kann aber manchmal auch eine Schwäche sein. Wir selbst als TÜV AI.Lab profitieren auf jeden Fall stark von der Nähe, die wir zu den anderen Unternehmen und Institutionen am Merantix AI Campus haben. Gelegentlich fehlen in Berlin gefühlt auch die zehn bis fünfzehn DAX-Unternehmen oder Mäzene, die andernorts solche Ökosysteme prägen und fördern können. Andererseits haben wir als starker Startup-Standort mit hoher Lebensqualität und dem entsprechenden Talentpool Möglichkeiten, um die uns andere Standorte beneiden.
Ich glaube in jedem Fall fest daran, dass Berlin ein globaler Hotspot für KI-Qualität werden kann, wenn wir unsere Power gemeinsam auf die Straße bringen und zeigen können, wie wir Vertrauenswürdigkeit, Qualität und Innovationskraft miteinander vereinbaren.
Vielen Dank für das Gespräch.