Bei allen technologischen Quantensprüngen der letzten fünf Jahre, welche auf die Entwicklung von Künstlicher Intelligenz zurückzuführen sind, darf nicht vergessen werden, welche ökologischen, sozialen und wirtschaftlichen Kosten KI-Lösungen oftmals zur Folge haben. Angesichts einer steigenden Zahl an KI-Systemen, braucht es daher dringend eine Diskussion, wie KI nachhaltiger gestaltet werden kann.
Im Rahmen von sustAIn – einem Gemeinschaftsprojekt von AlgorithmWatch, dem Institut für ökologische Wirtschaftsforschung und dem DAI-Labor – sollten Instrumente erarbeitet werden, mit denen sich die Nachhaltigkeit von KI-Systemen in der Praxis bewerten lässt. Das Projekt, welches von November 2020 bis Oktober 2023 lief, sollte Organisationen für die Nachhaltigkeit ihrer KI-Systeme sensibilisieren und Werkzeuge an die Hand geben, wie sie ihre KI-Systeme in Zukunft nachhaltiger gestalten können.
Jetzt, nach Abschluss des Projektes, haben wir uns mit Kilian Vieth-Ditlmann, Deputy Head of Policy & Advocacy bei AlgorithmWatch, getroffen, um mehr über die Ergebnisse des Projekts, die Resonanz auf das Tool, den Einfluss des AI Acts der EU sowie die Herausforderungen und Hürden für nachhaltige KI-Lösungen zu erfahren.
Hallo Herr Vieth-Ditlmann, vielen Dank, dass Sie sich die Zeit nehmen. Wird das Thema Nachhaltigkeit im Bereich der KI offen genug diskutiert und von Unternehmen, die diese nutzen bzw. entwickeln, adressiert?
Leider nein. Systeme künstlicher Intelligenz funktionieren oft nur durch die Ausbeutung von Ressourcen. Dennoch wird ihnen aktuell oft ein Vertrauensvorschuss gewährt: Die Technik werde alles schon regeln. Tatsächlich hat KI ein großes gesellschaftliches Potenzial, aber ihr Einsatz bringt gleichzeitig Gefahren und schädliche Folgen mit sich. Das wird nicht offen genug diskutiert.
Sie haben im Laufe des sustAIn-Projektes ein Tool zur Selbstbewertung entwickelt, um die Nachhaltigkeit von KI-Systemen in der Praxis genauer zu bewerten. Wie ist das Tool insgesamt angekommen?
Das Self-Assessment Tool stößt auf viel Interesse, obwohl es bisher nur auf deutsch verfügbar ist. Wir kriegen sowohl Rückmeldungen von Unternehmen als auch aus Forschung und Wissenschaft dazu.
Welches Feedback haben Sie von Unternehmen bekommen und welche Rückschlüsse ziehen Sie daraus?
Die Unternehmen wollen unter anderem die Bewertungslogik des Tools verstehen, machen Vorschläge für zusätzliche Fragen und wünschen sich eine englische Version. Wir waren etwas überrascht, wie viel Feedback wir dazu bekommen, es zeigt ganz klar, dass es einen großen Bedarf gibt – für mehr Werkzeuge und Hilfsmittel, um KI in der Praxis endlich nachhaltig zu gestalten. Ist KI ein Mittel, um die Klimakrise zu bewältigen, oder eine schlimmere Umweltsünde, als das Fliegen? Jetzt, wo wir gerade einen KI-Hype erleben, wird diese Frage immer dringender. Wir werden dementsprechend die Entwicklung einer umfassenden KI-Folgenabschätzung weitertreiben und ergänzen. Außerdem wird es in Zukunft noch wichtiger werden, dass Daten über Umweltrisiken auch transparent gemacht werden.
Ein Sustainable AI Index konnte zwar nicht entwickelt werden, allerdings haben Sie ein umfassendes Kriterien- und Indikatorenset zur Nachhaltigkeitsprüfung erarbeitet. Wie sieht dieses aus und können Sie ein Praxisbeispiel nennen?
Nachhaltige KI respektiert die planetaren Grenzen, verstärkt keine problematischen ökonomischen Dynamiken und gefährdet den gesellschaftlichen Zusammenhalt nicht. Im Projekt sustAIn haben wir auf dieser Grundlage 13 Kriterien definiert, die Organisationen berücksichtigen sollten, um KI nachhaltiger zu produzieren und einzusetzen.
Die meiste Aufmerksamkeit zieht nach wie vor die ökologische Nachhaltigkeit auf sich. KI-Systeme sind das Gegenteil von ökologisch nachhaltig, wenn sie mehr Ressourcen verbrauchen, als durch ihren Einsatz geschont oder sogar reproduziert werden. Neben dem Materialverbrauch für die Hardware sind ihr immenser Energieverbrauch und die damit verbundenen Emissionen ein Hindernis auf dem Weg zur ökologischen Nachhaltigkeit.
Ein großes Fragezeichen steht zum Beispiel hinter der Anwendungsphase von KI-Systemen. In der Fachsprache heißt diese Phase „Inferenz“. Die Entwicklung und das Training von KI-Modellen sind sehr komplexe Prozesse und verbrauchen relativ viel Energie. Gleichzeitig ist die Zahl der Prozesse in diesen Phasen aber begrenzt und sie sind zu einem absehbaren Zeitpunkt weitestgehend abgeschlossen. Jede Anwendung oder Inferenz eines KI-Systems verbraucht hingegen in der Regel relativ wenig Energie. Die Inferenz läuft aber mitunter extrem häufig ab.
Ende 2022 gaben Forscher*innen von Facebook AI in einem wissenschaftlichen Paper an, dass in den Facebook-Rechenzentren täglich Billionen von Inferenzen stattfinden. In den letzten drei Jahren habe sich diese Zahl verdoppelt. Der deutliche Anstieg der Inferenzen habe auch dazu geführt, dass die darauf spezialisierte Infrastruktur ausgeweitet wurde: Zwischen Anfang 2018 und Mitte 2019 habe sich die Anzahl der Server, die in Facebooks Rechenzentren speziell auf Inferenzen ausgelegt sind, um das 2,5-fache gesteigert. Bei einem Unternehmen wie Facebook kommt diese Masse an Inferenzen beispielsweise durch Empfehlungs- und Ranking-Algorithmen zustande. Diese Algorithmen kommen jedes Mal zum Einsatz, wenn die fast drei Milliarden Facebook-Nutzer*innen weltweit die Plattform aufrufen und sich Inhalte in ihrem Newsfeed anzeigen lassen. Weitere typische Anwendungen, die auf Online-Plattformen zu hohen Inferenzzahlen beitragen, sind die Klassifizierung von Bildern, die Objekterkennung in Bildern und auf großen Sprachmodellen basierende Übersetzungs- und Spracherkennungsdienste.
Die Treibhausgas-Emission von KI-Lösungen ist vermutlich der offensichtlichste Indikator zur Bewertung von Nachhaltigkeit. Welche anderen analysierten Bereiche würden Sie hervorheben? Welche Erkenntnisse waren überraschend?
Die soziale Nachhaltigkeit von KI ist ebenso extrem wichtig. Sozial nachhaltige Entwicklung und Anwendung von Künstlicher Intelligenz stellt den Menschen, die Gesellschaft und gerechte Lebensverhältnisse in den Mittelpunkt. Dazu gehört Transparenz und Verantwortungsübernahme der Unternehmen. Außerdem sollte bei der KI-Entwicklung und -Anwendung ein Bewusstsein für Fairness vorhanden sein. Endnutzer*innen, Betroffene und weitere Stakeholder*innen sollten am Designprozess der KI beteiligt werden. Die Teams in der KI-Planung und -Entwicklung sollten divers und interdisziplinär aufgestellt sein. Auch der Anwendungskontext einer KI muss in deren Entwicklung berücksichtigt werden. KI-Systeme sollten daher anpassbar und neu trainierbar sein, wenn sie in unterschiedlichen kulturellen Kontexten eingesetzt werden. Es sollte insbesondere auf lokale Wissensbestände und Datensätze zurückgegriffen werden.
Das gilt zum Beispiel auch für große text- oder bildgenerierende Modelle, deren Output suggeriert, dass wir es mit Fakten oder realistischen Abbildungen zu tun haben. Letztlich sind es jedoch nur realistisch erscheinende Inhalte, die bestimmte kulturelle Codes verbreiten. Die Überraschung ist also, dass wir von nachhaltiger KI noch weit entfernt sind und noch weniger Daten darüber haben, als wir am Anfang erwartet hatten.
Sowohl der Erfolg einer KI als auch ihre Bewertung steht und fällt mit der Datenlage. Diese ist, etwa bezüglich des Energieverbrauchs von KI-Lösungen, oft sehr undurchsichtig. Welche politischen Schritte sind hier nötig, um das Thema mehr in den Vordergrund zu stellen?
Es liegen kaum Informationen über den Energieverbrauch von KI-Systemen und die von ihnen verursachten Emissionen vor. Das erschwert es, politische Lösungsansätze zu entwickeln, um die Emissionen zu reduzieren. Im EU-Klimagesetz von 2021 haben der EU-Rat und das EU-Parlament das Ziel vorgegeben, dass die EU bis 2050 klimaneutral werden solle. Konkrete politische Reaktionen auf die schädlichen Folgen der KI-Produktion für die Umwelt blieben aber zunächst trotzdem aus. Als die Europäische Kommission im April 2021 ihren Entwurf zur KI-Verordnung (Artificial Intelligence Act/AI Act) veröffentlicht hatte, waren darin keine verpflichtenden Umweltauflagen für Hersteller*innen und/oder Anwender*innen von KI-Modellen zu finden.
Die finale Fassung der europäischen KI-Verordnung sieht nun erste wichtige Schritte für den Umweltschutz vor. Die Umwelt ist eines der explizit erwähnten schützenswerten Rechtsgüter. Es müssen nun standardisierte Berichts- und Dokumentationsverfahren zur effizienten Ressourcennutzung von KI-Systemen erstellt werden. Diese Verfahren sollen dazu beitragen, den Energie- und sonstigen Ressourcenverbrauch von KI-Systemen mit hohem Risiko während ihres Lebenszyklus zu reduzieren, oder auch eine energieeffiziente Entwicklung von KI-Modellen für allgemeine Zwecke („general-purpose AI models“/GPAI) voranzutreiben. Das wird neue Forschung und Erkenntnisse über die ökologische Nachhaltigkeit von KI ermöglichen.
Der AI Act der EU, den die Bundesregierung nun ebenfalls unterzeichnen möchte, listet erstmals Umweltrisiken von Künstlicher Intelligenz auf. Ist dies aus Ihrer Sicht genug oder lediglich ein erster Schritt zur Transparenz?
Anbieter*innen von GPAI-Modellen, die mit großen Datenmengen trainiert werden und einen hohen Energieverbrauch haben, müssen diesen Energieverbrauch gemäß der KI-Verordnung genau dokumentieren. Die Kommission hatte diesen Aspekt in ihrem ersten Entwurf völlig vernachlässigt. Deshalb haben Forschungsorganisationen immer wieder gefordert, den Energieverbrauch von KI-Modellen transparent zu machen. Die Kommission hat jetzt die Aufgabe, eine geeignete Methodik für die Bewertung des Energieverbrauchs zu entwickeln. GPAI-Modelle, die ein systemisches Risiko darstellen, müssen größere Auflagen erfüllen. Sie müssen zum Beispiel intern Maßnahmen zum Risikomanagement und Testverfahren entwickeln. Diese Maßnahmen und Verfahren müssen von einer dazu eigens eingerichteten Behörde genehmigt werden, damit sichergestellt wird, dass die Anbieter*innen die Auflagen erfüllen. Das sind alles wichtige Schritte, aber natürlich nur ein Anfang und eine Grundlage, auf der in Zukunft weitere Regulierungsansätze entwickelt werden können.
Vielen Dank für das Gespräch.