Dida ist ein interdisziplinäres Team aus Mathematikern, Physikern und Ingenieuren, das maßgeschneiderte Software-Anwendungen für Unternehmen entwickelt. Mit Hilfe von Machine Vision können Strukturen in Bild und Text erkannt werden, die Menschen nicht erkennen – mit Use Cases im Bereich von Versicherungen, e-Commerce und Travel, Immobilien und Gesundheit. #ki_berlin hat mit dida CEO Philipp Jackmuth und CTO Lorenz Richter über Mustererkennung, Datenfreigabe und den öffentlichen KI-Diskurs gesprochen.
Sie arbeiten stark im Bereich der Prozessoptimierung und wie Deep Learning dafür nutzbar gemacht werden kann. „Machine Vision“ ist eines Ihrer Steckenpferde. Was versteht man darunter?
Lorenz Richter: Bei Machine Vision geht es darum, mittels Algorithmen Muster in Bildern zu erkennen und zu analysieren. Klassische Aufgaben sind das Klassifizieren von Objekten oder das Segmentieren von Bildern in vorgegebene Einheiten. Das Hauptmerkmal der Deep-Learning-Ansätze ist dabei, dass die entsprechenden Algorithmen generalisieren können. Das bedeutet, dass sie auch mit Daten umgehen können, die sie vorher noch nicht gesehen haben. Es wird also kein stures Regelwerk implementiert, sondern versucht, mittels komplexer nichtlinearer Funktionen (den so genannten künstlichen neuronalen Netzen) eine semantische Struktur abzubilden. Die Fortschritte, die in diesem Bereich des Machine Learnings in den letzten fünf Jahren erzielt wurden, sind enorm. Mittlerweile können wir von der Faustregel ausgehen, dass alles, was ein Mensch in einem Bild erkennen kann, auch von einem Algorithmus erkannt werden kann. Um einen konkreten Anwendungsfall zu nennen: In einem aktuellen Projekt für den Deutschen Wetterdienst identifizieren wir entstehende Gewitterwolken durch die Analyse von Satellitenbildern. Das wäre vor ein paar Jahren so noch nicht möglich gewesen.
Mit welchen Themen befassen sich Ihre Machine-Vision-Lösungen und lassen sich diese auf andere Bereiche übertragen?
Philipp Jackmuth: Das Schöne am Deep Learning ist, dass es thematisch einigermaßen universell ist. Ob es um das Erkennen von Hunden und Katzen in Bildern oder um das Analysieren von komplexen Satelliten-Daten geht – die zugrundeliegenden Machine-Learning-Modelle funktionieren sehr ähnlich. Wir sind also nicht auf bestimme Branchen konzentriert, sondern vielmehr auf die generelle mathematische Modellierung von Problemen aus den Bereichen der Mustererkennung in Bildern (Machine Vision) und Mustererkennung in Texten (Natural Language Processing, NLP). Da sich in diesen Forschungsfeldern gerade viel tut, profitieren unsere Kunden sehr davon, dass wir stark mit der wissenschaftlichen Forschung verknüpft sind und viel Zeit in die interne Weiterbildung investieren.
Die Erkennung, Verarbeitung und Nutzung von maschinellen Daten ist das Eine. Sie sprechen gerade das Natural Language Processing an, welches praktisch alle Bereiche der (Arbeits-)Welt betrifft. Wie funktioniert diese Art der Mustererkennung?
Lorenz Richter: Beim „Natural Language Processing“ geht es um das Analysieren von unstrukturiertem Text, das heißt in der Regel Fließtext, wie er in Briefen auftritt oder in Interviews wie diesem hier. Im Unterschied zu Bildern haben wir es hier mit sequenziellen Daten zu tun, bei denen die Reihenfolge eine Rolle spielt. Hinzu kommt, dass es deutlich weniger klar ist, wie man die Daten in einem mathematischen Modell kodiert. Bei Bildern arbeitet man mit den Pixelwerten als Inputgrößen, bei Texten ist die Art der Kodierung der erste Schritt im Design eines funktionierenden Algorithmus. Anders als bei Bilddaten haben sich hier sogenannte rekurrente neuronale Netze als zielführend erwiesen, in denen innerhalb des Modells Feedback-Loops bestehen können, um so der sequenziellen Struktur Rechnung zu tragen. Spannend ist hier sicher das große Vorhandensein von unstrukturiertem Text und das damit einhergehende Potential, diese Daten gewinnbringend in interne Prozesse einfließen zu lassen.
Dida ist sehr interdisziplinär aufgestellt. Ihr Team besteht aus Mathematikern, Physikern und Ingenieuren. Wie bewerten Sie den KI-Standort Berlin und die Verknüpfung von Forschung und Wirtschaft in der Stadt?
Lorenz Richter: In der Tat glauben wir, dass es wesentlich ist, neben dem aktuellen Trend, bereits vorimplementierte „Black-Box“-Modelle zu benutzen, sich auf die mathematischen Grundlagen des Machine Learnings zu berufen. Bei unseren teilweise höchst spezialisierten Anwendungen ist es wichtig, dass man die Details versteht – hierfür sind Mathematik und Physik zwei dankbare Disziplinen, die neben dem Engineering-Aspekt unabdingbar sind. Mit seinen drei großen Universitäten und einer Spitzenforschung sowie sehr guten Ausbildung in den quantitativen Bereichen – beispielsweise an der Berlin Mathematical School oder dem neuen Excellenzcluster Math+ – ist Berlin sicherlich gut aufgestellt. Und auch das Machine Learning ist in der universitären Landschaft mehr und mehr vertreten. Hinzu kommt eine lebendige Startup-Szene und das Ansiedeln von KI-Größen wie Amazon und Google, die der Stadt sicher gut tun.
Die USA und besonders China treiben einen immensen Aufwand im Bereich KI. Was muss passieren, damit Deutschland im internationalen Vergleich nicht ins Hintertreffen gerät?
Philipp Jackmuth: Wichtig ist sicherlich eine konsequente Förderung der Grundlagenforschung sowie der Unternehmen mit innovativen KI-Ideen. Entsprechend begrüßen wir die aktuell vom Bundesministerium für Bildung und Forschung ausgeschriebenen Förderungen im Bereich der Künstlichen Intelligenz. Des Weiteren sollten insbesondere staatlichen Stellen möglichst viele Daten frei verfügbar machen – Stichwort „Open Data“. Dies ist im Übrigen auch unter Demokratie- und Transparenzgesichtspunkten wünschenswert. Auch hier sehen wir lobenswerte Ansätze, beispielsweise im Rahmen des Copernicus-Projekts der Europäischen Weltraumorganisation (ESA). Nicht zuletzt sollte auch der öffentliche Dialog über neue Technologien gefördert werden, um die interessierte Bevölkerung mit guten, nicht-effekthascherischen Informationen zu versorgen und unrealistische Ängste zu nehmen.
Wie sehen Sie die Innovations- und Investitionsbereitschaft in Deutschland in Bezug auf Künstliche Intelligenz?
Lorenz Richter: Im Vergleich zu den USA oder China haben wir hier sicherlich Nachholbedarf. Sicherlich ist eine gewisse Skepsis gegenüber der Künstlichen Intelligenz angebracht, es muss jedoch gleichzeitig eingesehen werden, dass das Fortschrittspotential gewaltig ist und dass für den Fortschritt auch gewisse Anstrengungen nötig sind. Wir sind optimistisch, dass sich hier auch in Deutschland in den nächsten Jahren einiges tun wird.
Die gesellschaftliche Aufmerksamkeit für Künstliche Intelligenz ist rapide gewachsen und der öffentliche Diskurs schwankt bekanntlich zwischen Angst und Vorfreude. Wie sehen Sie die Chancen, Potentiale und Risiken?
Philipp Jackmuth: Ich halte den öffentlichen Diskurs für sehr wichtig, nicht nur im Bereich der Künstlichen Intelligenz, sondern bei jeglicher Art von technologischem Fortschritt. Es ist nun einmal so, dass wir Menschen immer stärkere Werkzeuge entwickeln. Diese Werkzeuge sind an sich wertfrei und es kommt auf die moralische Urteilsfähigkeit des Menschen an, der sie benutzt. Ein altes Beispiel: Ich kann mit Hilfe eines Hammers ein schönes Bild aufhängen, aber ebenso kann ich mit dem Hammer jemandem auf den Kopf hauen. Ähnlich ist es auch mit der Künstlichen Intelligenz. Wir brauchen gewisse gesellschaftliche Regeln, die uns sagen, wie mit dieser Technologie umgegangen werden soll. An diesen Regeln sollten insbesondere die entsprechenden Fachleute arbeiten, aber eben auf eine transparente Art und Weise und unter Berücksichtigung der öffentlichen Meinung. Und genau diese Art von Diskurs sollte auch von der Regierung gefördert werden – nicht zuletzt, um dem teilweise angstfördernden, allmachtversprechenden PR-Geschrei gewisser Marktteilnehmer entgegenzuwirken.
Vielen Dank für das Gespräch.