Wenn wir an Chatbots denken, dann fallen uns meist wenig zufriedenstellende Beispiele der Online-Kommunikation mit digitalen Assistenten ein. Genau hier setzt Alexander Weidauer mit seinem Berliner Startup Rasa und ihren Open-Source-Machine-Learning-Tools für Entwickler und Produktteams an, um kontext-bezogene Multi-Turn-Konversationen zu automatisieren und frustrierende Erlebnisse mit Chatbots ad acta zu legen. Mittlerweile nutzen mehrere Tausend Entwickler ihr Toolkit, das in einigen Fortune-500-Firmen zum Einsatz kommt – Zeit für ein Gespräch mit #ki_berlin.
Wie ist die Idee zu Rasa entstanden?
Im Jahr 2015 wollten mein Mitgründer Alan Nichol und ich selbst einen Chatbot entwickeln, allerdings haben wir dabei festgestellt, dass es kaum Technologien gab, die an unseren individuellen Use Case angepasst werden konnten. Außerdem lag alles in der Cloud und man hatte keine wirkliche Kontrolle über seine eigenen Daten. Wir haben uns dann mit anderen Chatbot-Entwicklern ausgetauscht und schnell gemerkt, dass eine große Nachfrage für ein Open-Source-Produkt herrschte. So entstand das Konzept von Rasa. Ende 2016 haben wir Rasa NLU, unser Produkt für die Erkennung von Entities und Intents [Anm.d. Red.: Die Absicht des Nutzers und dessen weitere Modifizierung] via Open Source zur Verfügung gestellt. Jetzt, zweieinhalb Jahre später, haben wir bereits über eine halbe Million Downloads und über 300 Entwicklerinnen und Entwickler aus der ganzen Welt haben ihren Teil zu Rasa beigetragen.
Rasa ist ein Open-Source-Tool. Wie funktioniert das Modell und wo kommt es überall zum Einsatz?
Es gibt einige Open-Source-Tools, die ein ähnliches Business Model verfolgen. Rasa bietet eine Software, die komplett frei verfügbar ist. Sie läuft somit also auf der eigenen Infrastruktur und man hat die vollständige Kontrolle über seine Daten. Des Weiteren ist der Code offen und kann somit an die individuellen Anforderungen eines Unternehmens angepasst werden. Sobald große Unternehmen dann mit ihrem digitalen Assistenten skalieren, gibt es besondere Anforderungen an Sicherheit und Support. Dann kommen wir mit unserer Enterprise-Version ins Spiel.
Sie haben kürzlich ein Funding in Millionenhöhe bekommen. Was ist das Erfolgsversprechende für Investoren an Rasa?
Der Markt „Conversational AI“ ist immer noch am Anfang und bietet viel langfristiges Potential. Wir sehen jedoch die Tendenz, dass sich die Expertise mehr und mehr betriebsintern entwickelt wird. Die Firmen verstehen, dass sich mit der Technologie ein nachhaltiger Wettbewerbsvorteil aufbauen lässt und dass sie mit unser Technologie ihre Zukunft in der eigenen Hand haben. Für Rasa besteht ein großes Potential, sich als Standardinfrastruktur für Conversational AI weiträumig durchzusetzen.
Was weckte Ihr Interesse für Chatbots und Natural Language Understanding (NLU)?
Wir wollten schon immer Tools bauen, die es einfacher machen, Computer zu bedienen. Mit treev haben wir das damals für die Dokumentensuche versucht. Wir glauben, dass Conversational AI das beste Interface ist, um allen Menschen zu ermöglichen, Computer effizient zu verwenden.
Ihr erstes Unternehmen treev gründeten Sie in London. Was macht Berlin nun zu einem guten Standort für Rasa?
Wir sind damals nach Berlin gegangen, um am Techstars Program teilzunehmen. Bis heute sind wir sehr glücklich über diesen Schritt. Berlin bietet die richtige Infrastruktur und eine gute Mischung aus großartigen Talenten, Startups und innovativen Labs von großen Unternehmen.
Wir haben mittlerweile ebenfalls einen weiteren Standort in San Francisco, um nah bei unserer Community und unseren Kunden in den USA zu sein. Trotzdem bleibt der Standort Berlin als ein wichtiges R&D-Zentrum für uns erhalten und wird weiter deutlich ausgebaut.
Wie sehen Sie die Entwicklung der KI-Szene in Berlin?
Die KI-Szene hat sich auf jeden Fall sehr ins Positive verändert. Während vor ein paar Jahren viele Unternehmen auf Grundlage von ersten Ideen gegründet wurden, sind viele mittlerweile den nächsten Schritt gegangen und haben ein erfolgreiches Business-Konzept daraus entwickelt. Ich denke, der Mix aus Startups, Investoren, Corporates und Katalysatoren wie Meetups und Acceleratoren ist dabei führend und einmalig in Deutschland.
Was ist der wichtigste Faktor, damit Chatbots intelligenter werden und als ebenbürtige Hilfe wahrgenommen werden? Und wie weit sind wir davon entfernt, dass sich Chatbots bald nicht mehr vom Menschen unterscheiden lassen?
Sprache und Konversationen sind sehr komplexe Konzepte und die Entwicklung ist immer noch am Anfang. Trotzdem hat es in letzter Zeit mehr Forschung in diesen Bereichen gegeben und wir sehen gute Fortschritte. Einer der wichtigsten Aspekte für den Erfolg ist dabei, ein skalierbares Produkt zu bauen, das viele Use Cases abdeckt und auch so genannte “Edge Cases”, also eher seltene und schwierige Situationen, gut meistert.
Zur Zeit sind die vorhandenen Bots darauf fokussiert, bestimmte Use Cases abzuwickeln. Von einem generellen Verständnis aller möglichen Themengebiete in einem Bot sind wir noch sehr weit entfernt. Trotzdem glaube ich, dass sich AI-Assistenten durchsetzten werden. Schließlich ist Sprache eines der natürlichsten Kommunikationsmittel für uns Menschen.
Die Fragen der Fragen: Wo hört Maschinelles Lernen auf und wo fängt Künstliche Intelligenz an?
Aus wissenschaftlicher Sicht gibt es zwischen diesen Begriffen keinen Übergang, da Machinelles Lernen ein Teil von Künstlicher Intelligenz ist. Die Frage, ab welchem Zeitpunkt man Maschinen als intelligent bezeichnen kann, philosophiert man am besten bei einem Wein! In jedem Fall liegt noch viel Arbeit vor uns.
Vielen Dank für Ihre Zeit.