Prof. Dr. Klaus-Robert Müller: Der Lehrer der Maschinen
Er macht dank maschineller Lernsysteme chemische Erkenntnisse vorhersehbar, steuert anhand seines Brain-Computer Interfaces Gehhilfen mit der Kraft der Gedanken und arbeitet mit der Berliner Charité an einer besseren Diagnostik für Krebs. Seit über 25 Jahren setzt sich der studierte Physiker und Informatiker Prof. Dr. Klaus-Robert Müller dafür ein, Maschinelles Lernen für die „wichtigen Dinge“ wie Medizin, Natur- oder Neurowissenschaften zu nutzen. Der mehrfach ausgezeichnete Spitzenforscher ist als Professor für Maschinelles Lernen an der TU Berlin und Sprecher des Berliner Zentrums für Maschinelles Lernen (BZML) tätig. Neben Gastprofessuren an diversen internationalen Universitäten hat Prof. Dr. Müller seit 2014 auch die Funktion als Co-Direktor des „Berlin Big Data Centers“ (BBDC) inne.
Prof. Dr. Müller, Sie hören es nicht gern, wenn Sie als Wegweiser Künstlicher Intelligenz bezeichnet werden...?
Stimmt, ich mag den Begriff Künstliche Intelligenz eigentlich nicht. Maschinen sind noch nicht intelligent, und viele der klassischen KI-Forscher der Achtzigerjahre haben ihre großen Versprechen nicht gehalten und nur wenige wirklich interessante Ergebnisse geliefert.
Letzteres kann man Ihrer Arbeit nicht vorwerfen. Sie haben zahlreiche Innovationen auf dem Gebiet des Maschinellen Lernens geprägt: Die Support-Vector-Machine, anhand derer charakteristische Muster in großen Datenmengen erkennbar werden, kommt unter anderem bei Suchmaschinen, bei der Bild-, Handschrift- und Spracherkennung sowie im Life-Science-Bereich zum Einsatz. Durch die Entwicklung der Gehirn-Computer-Schnittstelle („Brain-Computer-Interface, BCI) können Gelähmte wieder mit der Außenwelt kommunizieren, weil maschinelle Lernalgorithmen anhand charakteristischer Muster in den Hirnströmen die Intention der Person erkennen. Was treibt Sie an?
Ich möchte Dinge machen, die mich interessieren, zusammen mit neugierigen, interessanten Menschen. Maschinelles Lernen ist eines der seltenen Felder, in denen man durch bessere Grundlagenforschung direkt bessere Anwendungsergebnisse ermöglicht. Auch heute investiere ich knapp 50 Prozent meiner Zeit in Forschung, weil ich glaube, dank meiner jahrzehntelangen Erfahrung, ein paar Dinge besser durchdenken zu können. Außerdem will ich vorleben, dass es sich lohnt, seine Energie wirklich wichtigen Dingen zu widmen. Mit den Pathologen der Charité etwa arbeite ich daran, mithilfe eines sich selbst trainierenden Bilderkennungsverfahrens, Krebszellen genauer zu identifizieren, zu klassifizieren und ihre zerstörerische Wirkung abzuschätzen. Die Fortschritte sind beachtlich.
Die Frage, wie Lern- und Entscheidungsprozesse von Künstlicher Intelligenz transparent sowie erklärbar werden, scheint sich wie ein roter Faden durch Ihre Arbeit zu ziehen. Eine wichtige Entwicklung, Licht in die bisherige „Black-Box“ maschineller Lernsysteme zu bringen, ist Ihr „Layer-wise Relevance Propagation“ (LRP). Können Sie dieses System bitte näher erklären?
LRP, das wir gemeinsam mit dem Fraunhofer Heinrich-Hertz-Institut entwickelt und patentiert haben, ist eine Methode zum besseren Verständnis neuronaler Netze. Im übertragenen Sinn sind diese aus verschiedenen Schichten von verbundenen, selbstlernenden algorithmischen Elementen aufgebaut – ähnlich wie menschliche Neuronen. Um solchen Lernsystemen beispielsweise das Erkennen von Bäumen beizubringen, „füttert“ man sie mit Bildern, auf denen unterschiedliche Bäume zu sehen sind. Allerdings wird auf den Bildern nicht der Baum selbst markiert, sondern man gibt dem gesamten Bild ein Label „Baum“ oder „Nicht-Baum“. Nach und nach bündelt das System alle Rückmeldungen und wertet sie aus, bis jeder Baum auf jedem Bild erkannt wird. Mit der LRP werden diese einzelnen Entscheidungsprozesse schichtweise rückwärts betrachtet und dabei berechnet, welche „Neuronen“ welche Entscheidungen getroffen haben und welche Relevanz diese Entscheidung für das Endergebnis hatte. Dargestellt wird das optisch in einer sogenannten „Heatmap“. Diese zeigt, welche Pixel in dem Bild ganz besonders stark zur Eingruppierung des Bildes als Baum oder Nicht-Baum beigetragen haben. Diese Methode, Ergebnisse neuronaler Netze nachträglich interpretierbar zu machen, ist ein ganz entscheidender Schritt nach vorn, vor allem, da das System nicht nur in der Bilderkennung, sondern universal einsetzbar ist.
Apropos Einsatzbereiche: Gibt es Branchen, in denen sich diese „Explainable Artificial Intelligence“ (Erklärbare Künstliche Intelligenz) als wichtiger herausgestellt hat, als in anderen und warum?
Gerade in lebenswichtigen Fällen, das heißt bei sicherheitsrelevanten oder medizinischen Fragen, möchten die Anwender genau verstehen, warum ein maschinelles Lernsystem seine Entscheidungen trifft. Hier machen die Erklärbarkeit von Entscheidungen und das Verstehen, welche Neuronen welche Entscheidungen getroffen haben und wie stark diese Entscheidungen das Endergebnis beeinflusst haben, den Einsatz von datengetriebenen Lern-Algorithmen überhaupt erst sinnvoll möglich.
Sie expandieren Maschinelles Lernen auch auf bisher vernachlässigte Bereiche wie klassische Natur- und Materialwissenschaften im Allgemeinen und molekulardynamische Situationen im Besonderen, die die Grundlage vieler Modelle in Chemie oder Biologie darstellen. Warum wurden maschinelle Lernverfahren dort bisher noch wenig eingesetzt?
Die meisten maschinellen Lernverfahren arbeiten mit Standard-Algorithmen, die davon ausgehen, dass die Menge der zu verarbeitenden Daten irrelevant ist. Das gilt aber nicht für akkurate quantenmechanische Berechnungen eines Moleküls, bei denen jeder einzelne Datenpunkt entscheidend ist und wo die einzelne Berechnung bei größeren Molekülen Wochen oder manchmal auch Monate in Anspruch nehmen kann. Die enorme Rechnerleistung, die dafür benötigt wird, machte bislang ultrapräzise molekulardynamische Simulationen unmöglich.
Bisher, denn dank Ihrer Methode können jetzt neuartige naturwissenschaftliche Erkenntnisse leichter gewonnen werden. Wie ist Ihnen das gelungen?
Der Trick besteht darin, mit den maschinellen Lernverfahren nicht alle der potentiell möglichen Zustände der Molekulardynamik zu berechnen, sondern nur die, die sich nicht aus bekannten physikalischen Gesetzmäßigkeiten oder der Anwendung von Symmetrieoperationen ergeben. Diese speziellen Algorithmen erlauben es, das Verfahren auf die schwierigen Probleme der Simulation zu konzentrieren, anstatt Rechnerleistung für die Rekonstruktion trivialer Beziehungen zwischen Datenpunkten zu nutzen. Damit demonstriert diese Arbeit eindrucksvoll das hohe Potential der Kombination von Künstlicher Intelligenz und Chemie oder auch anderen Naturwissenschaften.
Seit Kurzem arbeiten Sie an einem neuem Forschungsprojekt, das vom BMBF gefördert wurde. Dabei geht es um die Erforschung der Grundlagen einer digitalisierten Produktentwicklung in der Fahrzeugindustrie. Können Sie mir bitte mehr über das Projekt Artificial Intelligence Aided x (AIAx) verraten?
Schon jetzt ermöglichen digitale Prototypen die Analyse eines neuen Produkts anhand von Simulationen, ohne dass ein physikalischer Prototyp gebaut werden müsste. Doch jede Simulation liefert riesige Datenmengen, die zurzeit von Ingenieuren händisch ausgewertet werden, um Mängel und Defizite in der Konstruktion zu erkennen und diese zu verbessern. Durch spezielle Maschinelle Lern-Verfahren sollen diese Daten automatisch intelligent analysiert und auch eventuelle Verbesserungen vorgeschlagen werden. Wir werden uns dabei vor allem um Themen wie „Effizientes Deep Learning“ und die „Erklärbarkeit und Robustheit“ der zu entwickelnden Verfahren kümmern. Wir wollen mit einer Probandenstudie unterschiedliche Darstellungsformen des Entscheidungsprozesses untersuchen. Wie soll die Erklärung dargestellt werden? Welche Informationen sind sinnvoll? Hinsichtlich der Akzeptanz von maschinellen Lern-Verfahren ist Erklärbarkeit ein wichtiger Aspekt. Denn die letztendliche Verantwortung obliegt dem Konstrukteur.
Um Entwicklungen des Maschinellen Lernens gerade in der Wirtschaft voranzutreiben, sind Sie als Wissenschaftler auf (private) Daten angewiesen. Sie verfechten das Recht auf Privatheit im Netz. Warum ist Letzteres für Sie wichtig?
Privatheit ist ein hohes Gut, dass es unbedingt zu schützen gilt, ohne Privatheit scheint mir Demokratie nicht möglich.
Welche Regulierungen braucht es Ihrer Meinung nach, damit private Daten ausreichend geschützt bleiben und (dennoch) Entwicklung stattfindet?
Es gibt technische-algorithmische Optionen, mit denen Informationen für Dienste extrahiert werden können, ohne dass alles gespeichert sein muss. Es gilt also sinnvolle Regulierungen zu finden, in denen Privatheit geschützt wird und technische Randbedingungen ermöglicht werden, sodass mit unseren Daten kein digitaler Wildwest stattfinden kann.
Als Professor für Maschinelles Lernen an der TU engagieren Sie sich seit fünfzehn Jahren außerdem besonders für den wissenschaftlichen Nachwuchs. Mit großem Erfolg. Inzwischen sind rekordverdächtige 31 Ihrer ehemaligen Doktoranden oder Post-Doktoranden selbst in den USA, Europa oder Asien Vollzeit-Professoren. Warum ist Ihnen gerade der wissenschaftliche Nachwuchs so wichtig?
Ich gebe meinen Studenten in meiner Vorlesung mit auf den Weg, wie großartig es ist, wenn wir Maschinelles Lernen für die wichtigen Dinge einsetzen. Zum Beispiel, um herauszufinden, ob eine Blutvergiftung von Bakterien oder Viren verursacht wurde. Ein Großteil meiner Absolventen geht dennoch ins Silicon Valley und macht dort Karriere. Einige gründen auch selbst Firmen, vor allem im Berliner Raum. Sie arbeiten in Social Media oder digitalem Marketing. Ich kann das verstehen, denn dort entfaltet das Wissen, das wir hier erzeugen, unmittelbar Wirkung und generiert Einkünfte.