Mit Künstlicher Intelligenz gegen Hasskriminalität im Internet: Dr. Robert Pelzer und Michael Hahne im Interview über Möglichkeiten und Rahmenbedingungen für den ethisch und rechtlich vertretbaren Einsatz von KI-Modellen zur Früherkennung von Straftaten.
Sie haben im Forschungsprojekt „KISTRA - Einsatz von Künstlicher Intelligenz (KI) zur Früherkennung von Straftaten“ zu KI-gestützten Lösungen geforscht, die potenziell strafrechtlich relevante Äußerungen in Online-Massendaten für Ermittlungsbehörden vorsortieren. Könnten Sie kurz erklären, wie ein solches KI-Verfahren funktioniert?
Robert Pelzer: In dem BMBF-geförderten Forschungsverbund KISTRA wurden KI-Modelle mithilfe von maschinellem Lernen trainiert, um Polizeibehörden dabei zu unterstützen, strafrechtlich relevante Hassrede, wie Volksverhetzung, in großen Datenmengen schneller zu erkennen. Im Teilvorhaben an der TU Berlin haben wir ethische Anforderungen an den Einsatz derartiger KI-Modelle in Polizeibehörden entwickelt. Diese umfassen z.B. die Güte und Diskriminierungsfreiheit der Algorithmen oder die Sicherstellung der menschlichen Entscheidungsautonomie. Für das Training der Modelle wurden Datensätze von Expert*innen aus Polizeibehörden erstellt und u.a. volksverhetzende Äußerungen annotiert. Die Anwendung sieht wie folgt aus: Zunächst werden Daten, die nach strafrechtlich relevanter Hassrede klassifiziert werden sollen, in das Tool eingelesen. Dies können etwa Beiträge aus Online-Plattformen wie Telegram-Kanälen sein. Die KI klassifiziert nun, inwiefern die Daten Anhaltspunkte für das trainierte Phänomen, also z.B. Volksverhetzung, enthalten. Die Ergebnisse der Klassifikation werden dann von Expert*innen in Strafverfolgungsbehörden geprüft und weiterverarbeitet.
Wie würden Strafverfolgungsbehörden ein solches Tool in ihren Arbeitsalltag integrieren?
Robert Pelzer: Stellen Sie sich vor, Strafverfolgungsbehörden erhalten Hinweise auf Hasskriminalität aus verschiedenen Telegram-Kanälen aus dem rechtsextremen und verschwörungsideologischen Spektrum. Mithilfe des KI-Tools könnten sie schnell aus den mehreren Zehntausend Postings und Kommentaren eine Vorauswahl treffen. Die Mitarbeiter*innen können dadurch viel schneller in die strafrechtliche Einzelfallbetrachtung und in weiterführende Maßnahmen zur Identifikation von Tatverdächtigen investieren. Das spart Zeit, die sonst für die manuelle Vorauswahl benötigt würde, und ermöglicht eine effizientere Identifizierung von strafrechtlich relevanten Fällen. In derselben Zeit können also mehr Straftaten und Straftäter*innen ermittelt werden.
Welchen ethischen und gesellschaftlichen Fragen sind Sie im Teilprojekt nachgegangen?
Michael Hahne: Wir haben inhaltliche und verfahrensbezogene Dimensionen untersucht, darunter Eingriffe in Freiheitsrechte, Fairness der KI-Modelle, Autonomie der Auswertenden, Transparenz des KI-Systems, Effektivität des Verfahrens sowie Legitimität der Zwecke und Rechenschaftspflicht. Wir haben uns damit befasst, welche konkreten Anforderungen sich aus diesen Dimensionen für die Regulierung des KI-Einsatzes im polizeilichen Staatsschutz ergeben.
Welche Ergebnisse haben Sie im Teilprojekt der TU Berlin entwickelt und wie sollen diese nun umgesetzt werden?
Robert Pelzer: Wir haben einen umfangreichen Anforderungskatalog für ethisch konforme und vertrauenswürdige KI für Anwendungen im polizeilichen Staatsschutz entwickelt. Das Europäische Parlament hat vor kurzem die KI-Verordnung verabschiedet, die umfassende Vorschriften für den Einsatz Künstlicher Intelligenz, auch im sicherheitsbehördlichen Kontext, enthält. Viele wesentliche ethische Anforderungen werden dort bereits adressiert, wie zum Beispiel die Forderung nach einer Zertifizierung von KI-Systemen hinsichtlich Vertrauenswürdigkeit und Diskriminierungsfreiheit. Die Herausforderung besteht allerdings darin, zu bestimmen, was Vertrauenswürdigkeit und Diskriminierungsfreiheit in den jeweils speziellen polizeilichen Anwendungsszenarien, etwa im Staatsschutz, bedeuten und nach welchen Kriterien ein KI-Modell konkret zu bewerten ist. Hier wollen wir mit unserer Forschung einen Beitrag leisten. Um die im KISTRA-Projekt entwickelten KI-Modelle in der Praxis einzusetzen, bedarf es noch einer entsprechenden Infrastruktur. Und es braucht aus unserer Sicht ebenfalls Lösungen für die „Wartung“ der Modelle, d.h. das Nachtraining mit neuen und damit aktuelleren Trainingsdaten, die etwa im laufenden Betrieb erhoben werden. Zudem müssen Polizeibehörden nach der KI-Verordnung zunächst Verfahren zur Qualitätssicherung vorhalten und last but not least müssten die Modelle zunächst, wie bereits erwähnt, zertifiziert werden. Das ist noch ein langer Weg.
Wie wird die Qualität der Trainingsdaten gewährleistet und wie die Nachvollziehbarkeit des KI-Systems?
Michael Hahne: Das sind noch offene Fragen, die vor der Implementierung derartiger KI-Systeme in der polizeilichen Praxis geklärt werden müssten. Aus ethischer Sicht sollte die Leistung der KI-Modelle von externen Stellen validiert werden. Und auch die Fairness des KI-Modells sollte geprüft werden, also dass ein Trainingsdatensatz etwa für Volksverhetzung im Hinblick auf unterschiedliche Opfergruppen ausgewogen ist. Wichtig ist auch, dass ein KI-Modell möglichst diskriminierungsfrei ist, d.h. dass Merkmale wie Religion oder Herkunft bei der Klassifikation keine Rolle spielen dürfen. Nachvollziehbarkeit bedeutet unter anderem, dass interne Kontrollstellen den gesamten KI-gestützten Auswertungsprozess nachvollziehen und kontinuierlich Verbesserungsmaßnahmen umsetzen können. Aus technischer Sicht bedeutet dies, dass geeignete Verfahren zur Visualisierung und Beschreibung der für eine Bewertung relevanten Zusammenhänge gefunden werden müssen, und aus Sicht der Anwender*innen in den Behörden sind Dokumentationspflichten hinsichtlich der Entscheidungsfindung erforderlich.
Durch das KI-Verfahren könnten Grundrechte wie Datenschutz und Meinungsfreiheit beeinträchtigt werden. Wie kann dem entgegengewirkt werden?
Michael Hahne: Polizeiliche Erhebungen und Auswertungen von Daten in öffentlichen Social-Media-Bereichen stellen einen Eingriff in das Recht auf informationelle Selbstbestimmung dar, denn es handelt sich um personenbezogene Daten. Über deren Verwendung darf jeder selbst bestimmen, auch wenn die Postings öffentlich zugänglich sind. Werden größere Datenmengen nun nicht mehr nur manuell gesichtet, sondern maschinell erhoben, abgespeichert und mithilfe eines KI-Verfahrens ausgewertet, sind die Rechte einer potenziell großen Zahl an Nutzer*innen betroffen. Eingriffe in Grundrechte erfordern eine rechtliche Grundlage. Die Datenverarbeitung sollte legitim, zweckgebunden und pseudonymisiert erfolgen. Eine sorgfältige Auswahl der Daten ist entscheidend, um die Streubreite der Betroffenen zu begrenzen. Es müssen auch hier Dokumentationspflichten und Löschroutinen „by design" implementiert werden.
Eingriffe in das Recht auf informationelle Selbstbestimmung durch die Polizei bedürfen einer gesetzlichen Grundlage. Welche wäre das in diesem Fall?
Robert Pelzer: Bei Verdacht auf Straftaten ist das die Strafprozessordnung. Die Polizeigesetze der Länder, oder im Falle des Bundeskriminalamts das BKA-Gesetz, ermächtigen die Polizei aber auch präventiv zur Gefahrenabwehr tätig zu werden. Dies schließt auch die Erforschung von möglicherweise entstehenden Gefährdungen ein. Im Strafprozessrecht und im Polizeirecht sind mit Ausnahme einiger Bundesländer bisher keine speziellen Regelungen für Internetauswertungen vorhanden, weshalb sich derartige Eingriffe auf sogenannte Generalklauseln stützen müssen. Dies ist aber nur möglich, wenn die Intensität der Eingriffe in Freiheitsrechte gering bleibt, andernfalls bedarf es spezifischer Rechtsgrundlagen. Das KISTRA-Team an der Ruhr-Universität Bochum um Prof. Dr. Sebastian Golla hat sich ausführlich mit rechtlichen Rahmenbedingungen von Internetauswertungen und dem Einsatz von KI befasst.
Wie können die maschinellen Entscheidungen wirksam überprüft werden?
Michael Hahne: Die Entscheidung über den Anfangsverdacht einer Straftat oder das Vorliegen einer Gefahr darf in keinem Fall automatisiert durch ein KI-System erfolgen. Wenn eine KI zur Entscheidungsunterstützung im Einzelfall oder wie im oben geschilderten Beispiel zur Identifikation potenziell strafrechtlich relevanter Äußerungen in Massendaten eingesetzt wird, muss sichergestellt werden, dass die KI-Ergebnisse von den Auswertenden als Vorschläge und nicht als Entscheidungen einer Maschine behandelt werden. Die Ergebnisse müssen also stets kritisch durch einen Menschen überprüft werden. Es darf keine Scheinprüfung geben. Umgesetzt werden könnte dies zum Beispiel durch Maßnahmen zur Reduzierung von Stress und monotonen Arbeitsabläufen, regelmäßige Qualitätskontrollen, zum Beispiel durch stichprobenartige Nachkontrollen, und darauf aufbauende kontinuierliche Schulungsmaßnahmen. So können den Auswertenden die notwendigen Kompetenzen vermittelt werden, auch neue Phänomene oder uneindeutige Fälle korrekt bewerten zu können.
Wie steht es um die Sicherheit dieser KI-Tools?
Robert Pelzer: Die IT-Sicherheitsanforderungen für polizeiliche Systeme sind grundsätzlich hoch, insbesondere wenn es um sensible Daten geht. Die KI-Modelle müssen ebenso geschützt werden. Besondere Sorgfalt ist dabei vor allem bei der Auswahl der Trainingsdaten geboten, um Angriffe auf die Modelle zu verhindern. Interne Qualitätsmanagementverfahren, Schulungen für Praktiker*innen und eine interne Prüfstelle sind notwendig, um Missbrauch durch den Staat oder Sicherheitsbehörden vorzubeugen. Eine staatliche Aufsichtsbehörde sollte die Qualität und Rechtmäßigkeit der internen Prüfverfahren regelmäßig überwachen.
Welche Inhalte müssen derzeit von Plattformbetreiber*innen gemeldet werden?
Robert Pelzer: Seit dem 17. Februar dieses Jahres gilt das europäische Regelwerk Digital Services Act (DSA), das keinen Katalog meldepflichtiger Straftaten vorgibt. Nach Art. 18 des DSA müssen Inhalte gemeldet werden, „die eine Gefahr für das Leben oder die Sicherheit einer Person oder von Personen“ darstellen. Unter welchen Umständen etwa volksverhetzende Äußerungen nach § 130 StGB diesen Tatbestand erfüllen, obliegt zunächst der Einschätzung der meldepflichtigen Plattformbetreiber im Einzelfall. Es ist aber nicht zu erwarten, dass große Plattformbetreiber wie Meta im großen Stil Hasspostings melden. Nutzer*innen können Hasspostings aber auch zusätzlich bei Meldestellen wie „Hessen gegen Hetze“, REspect! oder HateAid melden. Dort werden strafrechtlich relevante Inhalte an das BKA weitergeleitet. Unabhängig davon sollte Hasskriminalität von Strafverfolgungsbehörden auch proaktiv verfolgt werden. So führt das BKA etwa Aktionstage durch, in deren Rahmen gezielt gegen Hasskriminalität vorgegangen wird. Die in KISTRA entwickelten Modelle können helfen, strafrechtlich relevante Inhalte im Netz aufzuspüren.
Glauben Sie, dass Nutzer*innen von sozialen Plattformen weniger Hass und potenziell strafbare Äußerungen abgeben, wenn sie wissen, dass das KI-Verfahren schneller Ahndungen ermöglicht?
Michael Hahne: Die Wirkung hängt von verschiedenen Faktoren ab. Eine abschreckende Wirkung könnte erst eintreten, wenn Nutzer*innen das Gefühl haben, dass strafbare Äußerungen wahrscheinlich zu Sanktionen führen. Dann hängt es aber auch davon ab, wie sicher sich die Nutzer*innen auf der jeweiligen Plattform fühlen und wie gut sie die eigene Identität im Netz verschleiern können. Auch die Fähigkeit des Einzelnen, den wahrgenommenen Verfolgungsdruck auf die eigenen Handlungen zu beziehen, ist relevant. Der Einsatz von KI-Verfahren in Sicherheitsbehörden kann insofern zunächst nur einen Beitrag dazu leisten, mehr strafbare Inhalte sichtbar zu machen. Ob die Personen hinter den Nutzer*innennamen identifiziert werden können, steht leider auf einem ganz anderen Blatt. Auf dem Weg zu einer verbesserten strafrechtlichen Kontrolle im Internet bilden KI-Verfahren also letztlich nur einen Baustein.
Dieses Interview wurde zuerst auf der Website der Technischen Universität Berlin veröffentlicht und von Barbara Halstenberg geführt.