Prof. Dr. Alexander Löser ist Gründer und Sprecher des Data Science Research Centers an der Beuth Hochschule für Technik in Berlin. Sieben Professoren und viele Doktoranden arbeiten dort an Methoden für Deep Learning, Text-, Bild-, Mobility- oder Educational Data Mining. Als Beratungsexperte unterstützt er die Zalando SE, IBM, eBay/mobile.de, MunichRe AG, Krohne Messtechnik sowie betreut drei Startups und ist Experte für EU- und Bundesministerien, wie das BMWi oder das BMBF „Lernende Systeme“.
Sie sind Gründer des Data Science Research Centers an der Beuth Hochschule für Technik in Berlin. In welchen Bereichen und an welchen Themenkomplexen wird dort ganz konkret geforscht?
Ein wichtiges gemeinsames Kernthema unserer Grundlagenforschung ist Deep Learning für ganz unterschiedliche Modalitäten, wie Bild, Text, Tabellen oder Graphen. Die neuronale Repräsentation erlaubt uns dann einerseits die Qualität mit noch variantenreicheren Trainingsdaten zu verbessern oder auch zwischen zwei Modalitäten Abbildungen herzustellen. Für das EU-Projekt FashionBrain, unter anderem mit Zalando, haben wir genau das gemacht: Personen, Unternehmen und Produkte, die sowohl in Text – etwa in Blogs – existieren, haben wir zur Repräsentation in einer Datenbank gelinkt. Das Ganze passierte auch noch in der Hauptspeicherdatenbank von MonetDB; das hat den Vorteil für den Kunden, dass er kein weiteres System kaufen und warten muss. Dafür gab es dann einen Best Paper Award in Kyoto auf der IEEE Big Comp 2019.
Das Linking-Problem gibt es aber auch in der Medizin, also wenn Dinge in Arztbriefen, Röntgenbildern oder Leitlinien zu ICD-10 Codes (Anm.: Internationale statistische Klassifikation der Krankheiten und verwandter Gesundheitsprobleme) abgebildet werden sollen. Unsere Grundlagenforschung hat also fast immer einen ganz bestimmten Zweck, wir denken da so ähnlich, wie Grundlagenforschung für KI in der Industrie.
Aktuelle Partner kommen daher auch vorwiegend aus der Medizin und Diagnose, wie etwa Ada Health, die Charité Berlin oder Helios sowie Siemens aus dem Supply Chain Management, oder wie eben Zalando aus dem Retail. Ebenfalls sind wir im Educational Data Mining und in der Optimierung des städtischen Verkehrs mittels Verfahren des Maschinellen Lernens unterwegs.
Eines der Projekte, in dem Sie involviert sind, ist das MACCS-Projekt. Was hat es damit auf sich und was streben Sie in den nächsten drei Jahren damit an?
MACCS war ein BMWi-Vorhaben von 2016 bis 2019 mit der Nephrologie der Charité, der SAP, dem Startup SmartPatient und weiteren medizinischen Partnern. Die Ärzte wollen zunächst ein möglichst gutes “Bild” vom Patienten haben, bevor sie Diagnosen ausschließen bzw. stellen oder sogar Therapievorschläge geben. Diesen Prozess nennen die Ärzte Differentialdiagnose. Dieses integrierte “Bild” setzt sich in der Nephrologie insbesondere aus Daten aus Arztbriefen, aber auch aus Vitaldaten, Daten über eingenommene Medikamente und Daten aus Blut- bzw. Urinproben zusammen. Auch hier ging es dann darum, dieses “Bild” aus diesen multimodalen Repräsentationen in ein greifbares Bild für den Arzt zu setzen. Wir haben dazu die neuronale Methode TASTY entwickelt, die schon während des Schreibens eines Arztbriefes Symptome/Krankheiten erkennt und dann ICD-10 Codes, bzw. deren textuelle Repräsentation in der Wikipedia zuordnet. Der Clou ist aber, dass wir mit dem gleichen Programmiercode und nur minimalen Anpassungen an Parameter mit ganz unterschiedlichen Trainingsdaten auch gleich in mehreren Sprachen und völlig unterschiedlichen Domänen (Medizin, Fashion oder News) diese Funktionalität leisten konnten. Das war 2016 schon relativ neu. Später haben wir dann SECTOR entwickelt, welches einzelne Sätze und Abschnitte in einem Dokument auf Hunderte Themen klassifiziert. Damit kann ein Arzt dann wunderbar Anfragen stellen, wie: ”Gib mir mal Therapieempfehlungen für Krankheit xyz” in seinem Archiv von Zehntausenden von Arztbriefen und bekommt genau nur die relevanten Sätze. Diese Arbeit “Smart-MD” wurde auf der ACM WWW 2018 als Demo vorgestellt und die vollständige Analyse haben wir auf der ACL in Florenz 2019 zeigen dürfen.
Aktuell ist unsere Vision KI und Health noch enger zu verknüpfen. Ich bin beispielsweise Mentor am BIH, dem Berliner Institut für Gesundheitsforschung mit Fokus auf Translation und Präzisionsmedizin. Unser Team ist oft an der Charité; insbesondere die Zusammenarbeit mit den Ärzten ist ein großes Plus und das Thema erfüllt uns. Wir wollen alle alt werden und gesund bleiben und dabei Spaß am Leben haben. Eine kluge KI im Gesundheitsbereich, insbesondere in der klinischen Diagnose kann hier viel Unterstützung bieten. Wir haben diese Zusammenarbeit jetzt in einem neuen BMWi-Projekt fortgeführt.
Ich würde mir wünschen, dass die wichtigen Player im Bereich KI und Health dieser Stadt noch enger mit dem BIH zusammenarbeiten. Wir sollten hier noch mehr verstetigte Strukturen schaffen. Das Forschungszentrum Data Science an der Beuth Hochschule sehe ich da als wichtigen Partner.
Mit der Entwicklung von Social-Media-Plattformen sind Online-Debatten mehr und mehr gezeichnet von Hasskommentaren, Verleumdungen und Drohungen. Mit dem Gemeinschaftsprojekt NOHATE der FU Berlin versuchen Sie diesem Trend mithilfe von Datenanalysen und Mustererkennung etwas entgegensetzen. Wie packen Sie das schwer zu überblickende Thema an?
Wir gehen das Thema an wie alle andere auch: Als forschende, neugierige Ingenieure! Technisch ist das zunächst ein relativ überschaubares Klassifikationsproblem: Gegeben ist eine Menge von Buchstaben-Sequenzen im Posting, dessen Kontext in anderen Postings und zum Beispiel auch der Kontext des Autors. Dadurch maximieren wir die Wahrscheinlichkeit, die richtige Klasse (hier: Hate-Speech oder nicht) vorherzusagen.
Ganz so trivial wurde es dann aber nicht. Oft liegen nur wenige Trainingsdaten mit der Wahrheit vor, also bei denen ein Moderator eines Forums sagte, diese Postings wollen wir nicht haben. Es ist also nicht “Big Data”, sondern oft nur “Small Data”. Dann sind die wenigen Einschätzungen der Moderatoren alles andere als homogen, diese variieren schon stark innerhalb der Foren eines Verlags. Bei Foren von zwei Verlagen wird es ganz schwierig. Jeder Verlag hat seine eigene Kultur und sein eigenes Verständnis, wie viel Hate-Speech gelöscht werden soll und wie viel veröffentlicht wird, im Sinne der freien Meinungsäußerung. Diese Modelle müssen also die gesellschaftlich wichtige Balance zwischen dem demokratischen Grundverständnis der Meinungsäußerung und dem Löschen von Beleidigungen möglichst einfach leisten können. Wir haben dann das Problem mit Ansätzen des Transfer-Learnings und Ensemble-Learnings gelöst. Bei Transfer-Learning nimmt man ein sehr großes Sprachmodell der Zielsprache, das selbstüberwacht lernt, welches Wort oder welcher Satz als nächstes kommen könnte. Die aktuellen Modelle BERT, ELMo, GPT-2 oder BigBird sind auf Hunderte Millionen von Sätzen trainiert und haben viele Millionen Parameter. Das sind sehr mächtige Modelle, die auch sehr viele Abweichungen und Varianten von Sprache kodieren können.
Aktuell arbeiten wir mit Verlagspartnern bei heise, golem.de, Gute Frage, Welt und anderen Verlagen an der nächsten Version der Modelle.
Sie kennen sich durch Ihre Kollaborationen mit Unternehmen und Forschungseinrichtungen bestens an der Schnittstelle von Wissenschaft und Wirtschaft aus. Wie bewerten Sie den Standort Berlin und die Verknüpfung der beiden Bereiche in der Stadt?
Ich bin damals aus dem Silicon Valley, zunächst über einen kleinen Umweg bei der SAP Research, 2009 nach Berlin zurückgekommen. Das war schon eine Wette darauf, dass die Stadt sich in der Wissenschaft gut entwickelt. Heute muss ich lachen und freue mich, dass ich diese Wette “gewonnen” habe.
Berlin ist eine, wenn nicht die wichtigste Wissenschaftsstadt in Europa – meiner Meinung nach. Die räumliche Nähe zwischen Industrie, Investoren und akademischer Forschung ist besonders wichtig: Im Sommer kann unser Team unsere Industrie-Partner, andere Forschungsgruppen und die Bundesministerien mit dem Rad erreichen, im Winter kostet es 2,80 Euro mit der BVG. Das ist schon super. Zahlreiche bekannte Unternehmen haben sich in Berlin einen “Steinwurf weit” von der Beuth Hochschule in Berlin Mitte angesiedelt. Wir haben einen englischsprachigen Master in Data Science, der mehr als 300 Bewerbungen auf 25 Plätze erhält. Die Studenten unseres Masterstudiengangs Data Science sind alle hochmotiviert und sehr gut ausgebildet und hoffen, zu Recht, auf gute Jobs in Data-Science-Laboren der weltweit führenden Plattformen.
Neben dem Aufbau unseres Forschungszentrums Data Science seit 2014, habe ich auch beratend am Aufbau der Forschungs- und Data-Science-Abteilungen, beispielsweise bei Zalando oder eBay/mobile.de, über viele Jahre mitarbeiten dürfen. Dort, und in vielen anderen bekannten Unternehmen und Startups, die ich begleiten durfte, sind über die Jahre schon recht gute internationale Teams gewachsen. Das kommt meiner Meinung nach vor allem auch von dem guten Branding als Wissenschaftsstadt, das Berlin ausstrahlt.
Ich glaube, insbesondere diese Vielfalt der Studenten und Kulturen in Berlin bildet den Nährboden für Startups. Wir sollten das vertiefen, insbesondere sollten wir Programme fördern, die auch KI-Startups im schwierigen zweiten und dritten Jahr der Gründung unterstützen. Oft dauert es ja, das Datenprodukt zu entwickeln und die ersten zahlenden Kunden zu überzeugen. Im Bereich Gesundheit kommen dann noch die Jahre für die medizinischen Studien hinzu.
In all ihren Projekten arbeiten Sie mit einer Fülle an Daten und Informationen, die durch Machine-Learning-Verfahren verarbeitet und genutzt werden. Wie wichtig ist der Aspekt der Ethik, wenn es um KI, Persönlichkeitsrechte und Datenschutz geht?
BIAS, also die Einseitigkeit und Befangenheit in Trainingsdaten und Fairness von Algorithmen, ist ein wichtiges Thema, nicht nur bei uns im Team, sondern in der gesamten Community. Beispielsweise wird das System der „Parole“, der Bewährung, in amerikanischen Gefängnissen durch Maschinelles Lernen unterstützt: Ein System empfiehlt einem Richter, ob ein Häftling vorzeitig entlassen werden sollte. Kollegen aus den Staaten zeigten 2017, dass das System aufgrund von Design-Fehlern, etwa in der Beschaffung der Trainingsdaten und bei der Vorhersage hochgradig dazu tendiert, weiße Häftlinge zu bevorzugen. Wir unterrichten unsere Studenten und Doktoranden in Methoden, diese Fehler zu erkennen und möglichst durch Design auszuschließen. Insbesondere in hoheitlichen Aufgaben sollte KI nur mit sehr viel Fingerspitzengefühl eingesetzt werden – und vor allem sehr gut durchdacht. Die Flugzeugindustrie hat uns eine Kultur des Fehlermanagements vorgelebt und durch den offenen Umgang mit Fehlern und dem stetigen Verbessern der Flugzeuge und Prozesse erreicht, dass Flugzeuge die sichersten Verkehrsmittel sind. Für Data Science und Datenprodukte steht uns die Entwicklung dieser Kultur meiner Meinung nach noch bevor.
Auf der anderen Seite erschweren Regularien es für uns enorm, gute Datenprodukte in der Medizin zu designen. Quasi benötigen wir die Daten von vielen Patienten, um möglichst viele Varianten von Therapie-Verläufen und Diagnostiken dem System zum Training zu geben. Diese Daten liegen bei den Krankenkassen in höchster ICD-10-kodierter Qualität vor, die deutsche Gesetzgebung macht es uns aber sehr schwer, diese Daten für unsere Modelle zu nutzen. Andere nordeuropäische Länder haben da schon weiter gedacht und haben zentrale Datenspeicher. Hier fehlen noch kluge Ideen und Mut, Ansätze, wie Daten zu spenden, sind da erst der Anfang.
Die Nutzung von Mustererkennung, Machine Learning und KI nimmt in Ländern wie etwa China teilweise Formen an, die Ängste gegenüber der Technologie in unserer Gesellschaft weiter schürt. Wie sehen Sie das Potential hier in Deutschland sowie in Europa?
Als Data Scientist weiß ich, dass dieses geschulte und, vergleichsweise zu China oder einigen Ländern in Nordamerika, eher ausgewogene Wahrnehmungsbild dann auch in den Trainingsdaten für unsere KI “landet”. Es kann uns in Deutschland dann möglicherweise helfen, eher Fake News zu erkennen, als weniger geschulte Augen in Ländern, die stärker durch Internetplattformen und einseitig berichtende Medien getrübt werden. Noch ist diese so geschulte Generation sehr aktiv und kann unsere Gesellschaft prägen. Daher sehe ich diese Entwicklungen, wie in China, bei uns eher noch nicht.
Auf der anderen Seite wünsche ich mir von der Bevölkerung, der Politik und der Industrie jenseits der Plattform-Ökonomie, gelegentlich mehr Mut zur Investition und eine größere Technologie-Begeisterung. Es gibt Studien, die zeigen, dass die Marktkapitalisierung der wichtigsten amerikanischen oder chinesischen Player in der Plattform-Ökonomie mit mehr als 3300 Milliarden Euro fast das BIP von Deutschland erreicht. Europa ist in diesem enormen Wachstumssegment leider nach diesen Zahlen ungefähr auf Augenhöhe mit Afrika – die SAP SE ist weit und breit das einzige Schwergewicht. Das macht mir schon Angst für die nächsten 20 Jahre. Die Entwicklung der KI und der Plattform-Ökonomie ist leider kein schnell vorübergehender, auszusitzender Hype einiger Informatiker, sondern ein Thema, bei dem wir zu spät gestartet sind und für einige Branchen sogar der Zug in den „Winner-Takes-Most-Märkten“ bereits hoffnungslos abgefahren und durch chinesische und amerikanische Monopole besetzt ist. Wenn unsere etablierte Industrie jetzt nicht reagiert, könnten schlimme Abhängigkeitsverhältnisse für unsere Industrie, Politik und Bevölkerung zu nicht kontrollierbaren Monopol-Konzernen entstehen, die wir bestimmt nicht wollen.
Werfen wir einen Blick weiter hinaus: Machine Learning und Human Computation. Wie sieht die Welt im Jahr 2050 aus?
Vor dem Hintergrund der superschnellen Entwicklungen in China und in der Plattform-Ökonomie sollten wir bitte bis 2050 unsere Nischen erfolgreich besetzt haben. Meiner Meinung nach sind das KI-Entwicklungen im Bereich Health, B2B-Plattform-Ökonomie für die deutsche Industrie, Ökologie/Energiewirtschaft und beim lebenslangen Lernen. In diesen Märkten haben wir, zumindest meiner Meinung nach, noch eine gewisse Chance, mit KI unsere existierende Substanz zu vermehren und unsere Kultur positiv zu prägen.
Wir danken für das Gespräch.