Dr. Ralf Herbrich © Amazon

01 Oktober 2018

„Es ist leichter aufzuzählen, wo Künstliche Intelligenz bei Amazon noch nicht drin ist.“

Wenn Alexa scheinbar zufällig die passende Musik zur Stimmung spielt oder Ihnen beim Kauf einer Leselampe auf Amazon das neueste Buch Ihres Lieblingsautors vorschlägt, dann lässt sich das möglicherweise auf die Arbeit von Dr. Ralf Herbrich und internationalen Entwicklerteams zurückführen. Nach Stationen an Universitäten in Berlin und Cambridge sowie verschiedenen Positionen bei Microsoft und Facebook leitet der 44-jährige TU-Alumnus und promovierte Informatiker das Team für Maschinelles Lernen von Amazon. Hier ist der international renommierte Experte für Künstliche Intelligenz dafür zuständig, Computern das Sehen, Hören, Sprechen beizubringen – und das noch vor einigen Jahren scheinbar Unmögliche zu schaffen: Die Wahrscheinlichkeit zukünftiger Ereignisse vorherzusagen.

Dr. Ralf Herbrich, vor 20 Jahren, als Sie an der TU Berlin über das Thema promoviert haben, war maschinelles Lernen eher ein Randthema. Warum haben Sie sich damals für das Thema Künstliche Intelligenz begeistert?

Vor 20 Jahren galt die KI-Forschung noch als Orchideenfach mit vergleichsweise wenigen Wissenschaftlern. Ich war einer davon, weil ich begeistert war. Ich habe mit einer Vision von Zukunft studiert, die es noch gar nicht gab. Ich musste mir alles erträumen, was passieren wird, jetzt passiert es. Heute sind wir in der Lage, Verfahren der 80er- und 90er-Jahre zum Tragen zu bringen. Die größte Herausforderung war damals die Rechenleistung, die heute mit der Cloud unbegrenzt zur Verfügung steht. Heute arbeiten bei Amazon weit über 1000 Leute weltweit an KI, alle sind Spezialisten auf diesem Gebiet. Das Feld selbst ist sehr populär und wichtig für Amazon. Das verbindet mich auch mit Amazon, die DNA: der Wille, etwas Neues zu erfinden und zu entwickeln, was man vorher für unmöglich gehalten hat. Das fasziniert mich immer wieder.

In einem Interview haben Sie einmal gemeint: „Das Spannende am maschinellen Lernen ist, dass ganz unmittelbar Wissenschaft angewendet wird.“ Wie findet das gerade bei Amazon statt?

Für uns bei Amazon ist Künstliche Intelligenz und insbesondere Maschinelles Lernen integraler Bestandteil vieler Produkte und Services. Es fällt vermutlich leichter, die Produkte und Services aufzuzählen, die bei Amazon ohne künstliche Intelligenz auskommen als jene, in denen die Technologie schon steckt. Maschinelles Lernen ermöglicht zum Beispiel präzise Nachfrageprognosen: Wie viele rote oder blaue Schuhe werden im nächsten Frühling benötigt? Die Herausforderung bei Mode – im Unterschied zu Büchern – liegt darin, dass die Bandbreite der Produkte deutlich größer ist. Schuhe gibt es für Frauen und Männer, sie haben unterschiedliche Formen, Materialien, Größen. Amazon entwickelt Algorithmen, die Vorhersagen für die nächste Saison machen können. Das ist wichtig, um die Waren dementsprechend zu bestellen, sie in passender Anzahl vorrätig zu haben und pünktlich liefern zu können.

An Ihrem Berliner Standort arbeitet ein Team außerdem an der Spracherkennung mit Alexa. Was passiert da genau?

Alexa ist ein Baustein, um Kunden in der Bequemlichkeit entgegenzukommen. Mit Sprache kann man beispielsweise viel bequemer einkaufen, da das freie Sprechen für Kunden viel einfacher ist als die Bedienung mit Maus und Tastatur. Verkürzt gesagt helfen wir dem Alexa-Team, Antworten zu optimieren, zum Beispiel indem künstliche Intelligenz Gefühle vermitteln kann. Die Sprachbausteine, sogenannte Phoneme, werden über ein Machine Learning-System zusammengesetzt, so dass Alexa auch glücklich klingen kann und nicht wie ein gefühlloser Computer.

Laut einer aktuellen Umfrage des Magazins „The Information“ kaufen von den aktuell 50 Millionen Alexa-NutzerInnen weltweit nur 100.000 mit der smarten Assistenz Lautsprecher ein. Die Meisten wollen Preise vergleichen, vor allem aber das Produkt vor dem Kauf live anschauen sowie anfassen. Kommt das überraschend?

Nein, es gibt die falsche Fantasie, dass jegliche Entscheidung einer Person auch durch eine Maschine gefällt werden könnte. Das geht aber vor allem dann nicht, wenn die Sensorik fehlt. Ein Team hier in Berlin arbeitet gerade an der Reifegraderkennung für Obst. Für eine Maschine ist es extrem schwer zu erkennen, wie lange eine Orange noch haltbar ist. Als Mensch habe ich Haptik, ich kann die Orange anfassen und durch Fühlen, Sehen und Riechen den Reifegrad feststellen. Eine Maschine, die all das nicht kann, hat einfach zu wenig Informationen. Deshalb haben wir einen Sensor genommen, der Lichtwellen misst, die das menschliche Auge gar nicht sehen kann. Dieser Sensor kann der Orange quasi unter die Schale schauen und dort Flüssigkeitsanlagerungen erkennen. So hat man genug Daten, die das fehlende Greifen ausgleichen.

Steigt Amazon künftig ins Orangen-Geschäft ein?

Wir glauben an mehr Auswahl, mehr Bequemlichkeit und niedrigere Preise - denn Kunden haben uns in den letzten 25 Jahren niemals nach weniger Auswahl, längeren Lieferzeiten oder höheren Preisen gefragt. Frischwaren wie Orangen sind heute im Verkauf weitaus teurer, als sie sein müssten, weil die Hälfte auf dem Weg von der Ernte bis in die Küche verdirbt.

Ein weiteres Zukunftsthema sind energieeffiziente Algorithmen. Was verstehen Sie darunter?

Wir haben mittlerweile lernfähige Software, die den Menschen bei komplexen Brettspielen wie Schach oder Go besiegt. Aber dafür brauchen die Algorithmen noch hundert bis tausend Mal mehr Energie als wir. Ich bin Marathonläufer, ich weiß, dass ich mit Energie haushalten muss. Sonst habe ich im falschen Moment keine mehr. Im Moment konzentriert sich die akademische Forschung im Bereich KI aber nicht darauf, wie energieeffizient Algorithmen sind. Doch je mehr solche Vorhersageberechnungen auch von der Industrie genutzt werden, desto wichtiger wird dieser Aspekt, denn die Kosten für Rechenkapazitäten spielen in Zukunft eine immer größere Rolle. Hier ist der Mensch noch immer die energie-effizienteste Intelligenz. Bis Rechnerprozessoren so effizient sind wie das menschliche Gehirn, wird es noch eine Weile dauern. Die große Herausforderung der KI ist es nicht mehr, so genau in der Wahrnehmung und Vorhersage wie ein Mensch zu werden - sondern dabei auch nur genauso wenig Energie zu verbrauchen wie ein Mensch.

Im Berliner Development Center von Amazon sind über 500 Mitarbeiter sind tätig. In der Bundeshauptstadt arbeitet auch ein wichtiges Machine-Learning-Team von Amazon weltweit. Was zeichnet den Standort aus?

Für uns zählt Deutschland, neben weiteren Standorten wie Barcelona in Spanien und Cambridge in England, wegen seiner wissenschaftlichen Stärke und der hoch qualifizierten Leute zu den wichtigsten Standorten. Berlin hat drei große Vorteile: An den Berliner Universitäten arbeiten weltweit führende Wissenschaftlerinnen und Wissenschaftler im Bereich des maschinellen Lernens  und der Robotik. Es gibt eine unglaublich lebendige Startup-Szene, die viele Menschen von überall her anzieht. Und Berlin ist international. Ich finde das großartig und stelle immer wieder fest, dass auch Amazon-Kollegen aus aller Welt gerne hier arbeiten.

Inwiefern profitieren Sie von der Nähe der Berliner Universitäten wie der TU?

Wir setzen auf Kooperationen mit vielen Forschungseinrichtungen. Dazu gehören Universitäten und Forschungseinrichtungen wie die Max-Planck-Gesellschaft. Es passiert leider häufig, dass Unternehmen Wissenschaftler abwerben. Ich sehe das kritisch, weil aus diesen Instituten ja die künftigen Wissenschaftler kommen sollen. Gemeinsam mit der TU Berlin hat Amazon ein Postdoktoranden-Modell. Dabei arbeiten die Postdocs vier Tage bei uns und einen Tag am TU-Institut für Datenbanksysteme und Informationsmanagement von Prof. Volker Markl. Umgekehrt ist es beim Programm Amazon Scholar. Hier können Wissenschaftler ein Urlaubssemester oder einen Forschungsaufenthalt flexibel für Projekte bei Amazon nutzen. Derzeit sind zwei Direktoren der Max-Planck-Gesellschaft bei uns. Und unser CEO macht es uns ja vor: Jeff Bezos ist vier Tage bei Amazon und einen Tag beim Raumfahrtunternehmen Blue Origin, das Modell läuft offensichtlich ganz gut.