Was kann KI an der Schnittstelle von Kreativität und sozialem Engagement leisten? Dieser Frage hat sich das Berliner Unternehmen Birds on Mars angenommen. Birds on Mars ist ein Beratungsunternehmen und eine KI-Agentur, die sich auf Daten und künstliche Intelligenz spezialisiert hat. Gemeinsam mit dem inklusiven Künstler*innen Kollektiv barner16 haben „die Birds“ das Kaleidofon entwickelt, ein Interface für künstlerisches und vor allem inklusives Arbeiten. Wie genau das und die Künstliche Intelligenz dahinter funktioniert und welchen anderen Projekten sich „die Birds“ in und außerhalb der Wirtschaft außerdem noch widmen, haben wir mit dem Gründer und Chief Creative Florian Dohmann besprochen.
Euer Projekt „Kaleidofon“ ist wirklich einzigartig! Wie seid ihr auf die Idee gekommen? Was hat euch dazu inspiriert?
Wie es so oft ist, im Bereich Daten und KI, ist das Ganze durch einen Zufall entstanden: Einer meiner Kollegen kennt Mitarbeitende der barner16 seit einiger Zeit. barner16 ist ein inklusives Netzwerk für Kulturproduktionen aus Hamburg, mit dem wir zusammen an dem Projekt arbeiten. Dort trifft Kunst auf Soziales und ein Bereich davon ist die Musik. Mein Kollege hatte dann die Idee, mit den Kolleg*innen der barner16 zu sprechen, da sich KI doch eigentlich perfekt eignen würde, um ein inklusives Momentum im kreativen Schaffensprozess zu erzeugen. Also bewusst die Neutralität eines Algorithmus zu nutzen, um mit allen, egal ob mit oder ohne sogenannte Behinderung, zusammen zu musizieren. Dazu kam, dass wir uns als Birds on Mars von Anbeginn auf die Fahne schreiben, neben den vielen Wirtschaftsprojekten, die wir machen, auch zu zeigen, was es für neue Perspektiven auf das Thema Künstliche Intelligenz geben kann und sollte. Damit verstehen wir uns auch als Inspiration für andere Organisationen, den Markt und die Szene. Wir wollen zeigen, dass KI deutlich mehr kann, als Werbung zu optimieren und deswegen auch im Bereich KI und Soziales unbedingt eingesetzt werden muss. Ich habe selbst Zivildienst im sozialen Sektor gemacht und bin dadurch sehr geprägt. Durch diese wertvolle Erfahrung hat sich mein Blick für die Wichtigkeit dieser Bereiche geschärft. Das sind die Gründe, warum wir unter anderem zeigen wollten, dass man Künstliche Intelligenz eben unbedingt auch im sozialen Bereich einsetzen kann. Das Kaleidofon ist letztendlich angetreten, um Menschen mit und ohne sogenannte Behinderung dabei zu helfen, ihre eigenen individuellen Fähigkeiten zum Einsatz zu bringen und so gemeinsam Musik zu machen.
Das klingt wirklich sehr spannend. Wie kann man sich die Zusammenarbeit zwischen den beiden Parteien vorstellen? Wie sieht zum Beispiel ein gemeinsamer Arbeitstag aus?
Das Ganze ist unter den besonderen Vorzeichen der Pandemie entstanden. Zu Beginn sah es vor allem so aus, dass wir gemeinsam herausfinden mussten, für wen wir das Kaleidofon entwickeln möchten. Wir haben sehr schnell gemerkt, dass wir für die Entwicklung eine erste Nutzerin auswählen wollen, in dem Fall Katharina, deren Betreuer*innen schon seit einiger Zeit überlegen, wie sie Katharina eine Möglichkeit geben, auf die Bühne zu gehen und live zu performen. Das Kaleidofon soll prinzipiell für viele Leute gleichzeitig da sein, sprich, dass sie gemeinsam Musik machen können; der Community-Aspekt ist also essentiell. Nach klassischer KI-Manier starteten wir aber erstmal mit einem MVP, einem Minimal Viable Product, und haben uns in dem Prozess dazu entschieden, uns erstmal voll und ganz Katharina zu widmen. Wir mussten Katharina dann zunächst zeigen, wie überhaupt die Nutzung eines Browser-Interfaces funktioniert. Da wir aus der Distanz gemeinsam daran gearbeitet haben, haben wir die neuen Versionen des Kaleidofons immer auf dem Server abgelegt, den sie dann über den Browser über eine Tastatur und Maus kontrollieren konnte. Da hat ihr am Anfang vor allem ihr Betreuer Andreas geholfen.
In Summe kann man sagen, dass wir in kleinen Schritten sehr iterativ zusammengearbeitet haben und immer noch arbeiten. Andreas dient dabei stets als Kommunikator zwischen Katharina und uns. Um das mal kurz vorstellbar zu machen: Katharina hat einige Laute, über die sie sich ausdrücken kann; sie versteht viel und grundsätzlich hat sie verschiedene Möglichkeiten, sich in ihrer eigenen, individuelle Lautsprache auszudrücken. Das musste unser Team erstmal lernen und somit ein Gefühl füreinander bekommen. Seit über einem Jahr läuft das nun also Schritt für Schritt, von einem Prototypen zum nächsten und in der Zwischenzeit gab es auch die ersten Live-Konzerte.. Ein ganz besonderes Erlebnis in der Zusammenarbeit war für uns, dass wir mit unterschiedlichen Modi hinein gegangen sind. Wir sind es gewohnt, wie das viele Wirtschaftsunternehmen aus dem Tech-Bereich kennen, vieles durchgetaktet zu haben, eine Videokonferenz und Abstimmung nach der anderen zu führen, Trello-Boards etc. zu haben. Man muss klar sagen, die barner16-Kolleg*innen sind da auch affin und waren auch sofort drin, aber trotzdem haben sie ja einen anderen Rhythmus. Wenn die in ihrem Labor sitzen, kann jeder Zeit ein*e Klient*in reinkommen und Unterstützung und Aufmerksamkeit benötigen. Das ist also eine andere Art des Arbeitens, die sehr inspirierend und wertvoll ist. Nichtsdestotrotz musste es sich erstmal einschwingen bei uns und an der Stelle haben wir wahnsinnig viel gelernt und es macht sehr viel Spaß.
Würdest du sagen, dass euch diese Art der Zusammenarbeit dazu inspiriert hat, eure eigene Arbeitsweise auch außerhalb des Projektes zu verändern? Oder bleibt ihr da auch nach wie vor in den bekannten Vorgehensweisen mit getakteten Meetings etc.?
Das ist eine schöne Frage, aber ehrlich gesagt, weiß ich das gar nicht so genau. Im Kleinen bewirkt es sicherlich etwas, allein schon durch die Projektarbeit zum Kaleidofon, aber an dem sind auch nicht alle Birds beteiligt. Ich kann für mich persönlich sprechen, dass es vor allem im Kopf eine wahnsinnige Bereicherung ist. Ich bin ein großer Fan und Befürworter davon, auch geprägt durch meine Zivi-Zeit, dass man eine Zeit mal im sozialen Sektor verbracht haben sollte, das würde uns allen wahnsinnig gut tun und würde in der Wirtschaft und der Gesellschaft einen großen Beitrag leisten. Da bin ich sehr froh wieder vor Augen geführt zu bekommen, was an einigen Stellen für wahnsinnig wertvolle Arbeit geleistet wird. Dadurch, dass ich selbst auch Unternehmer bin und damit eine Verantwortung habe, hat es mich mit Sicherheit auch dazu inspiriert, unsere Diversität als klassisches Wirtschaftsunternehmen perspektivisch immer weiterzuentwickeln. Damit sind wir nie fertig, denn es ist ein kontinuierlicher Prozess, den man erst nehmen muss und wo sich Dinge auch nicht von alleine bewegen, sondern womit man sich sehr proaktiv beschäftigen sollte, vor allem in der Verantwortung als Unternehmer*in.
Nun noch einmal zurück zum Kaleidofon: Wie genau funktioniert dieses und vor allem die Künstliche Intelligenz dahinter?
Erstmal würde ich in Vision, Ziel und den aktuellen Stand unterteilen. Das Ganze ist ein Prozess, der übrigens auch auf kaleidofon.ai dokumentiert wird oder in einem Beitrag auf arte tracks zu sehen ist.
Generell halten wir die Meilensteine des Projektes über die Zeit fest, damit man auch nachvollziehen kann, was passiert und wie es sich entwickelt. Die Vision ist grundsätzlich, dass eine KI sowohl auf Interface-Ebene agiert, nämlich in der Lage ist, die individuellen Fähigkeiten und Bedürfnisse der Personen, die mit dem System arbeiten, zu verstehen, aufzunehmen und individuell darauf einzugehen. Die KI soll dann in der Lage sein, die verschiedenen Inputs zu vereinen und daraus eine generative Soundlandschaft zu kreieren, die eben die individuellen Bestandteile eines jeden Einzelnen verarbeitet und daraus ein Gesamtwerk kreiert. Das ist das Ziel. Wo stehen wir jetzt gerade? Vorneweg: Es gibt die Input-Ebene, die Verarbeitungsebene und Output-Ebene, ganz klassisch. Am Anfang haben wir uns stark mit dem Output beschäftigt und geschaut, wie wir generative Soundnetzwerke einsetzen können, um Sound zu generieren, der für die Leute, die den Input geben, spannend ist. Wir haben dann jedoch schnell bemerkt, dass unsere Nutzerin vor allem das Interesse hat, dass man sie versteht. Der Output erfordert damit im ersten Schritt gar nicht unbedingt eine generative KI, sondern wird im Moment explizit getriggert, also quasi über klassische Programmierung. Diese Output-Sounds hat Katharina vorher ausgewählt, die sie nun steuern und nutzen kann. Sie kann jetzt wie mit einem Synthesizer Samples steuern. Wie geht das? Da kommt jetzt die Inputebene mit ins Spiel, mit der wir uns vor allem im letzten halben Jahr beschäftigt haben. Das ist eine so genannte klassifizierende KI, ein klassifizierendes Machine-Learning-System, was mit Beispieldaten von Katharina trainiert wurde, indem sie der KI beigebracht hat, bestimmte Klassen zu triggern. Das kann man sich so vorstellen, wie wenn man beim Klavierspielen auf Taste 1 drückt, das wäre dann ihr individueller Soundausdruck oder auf Taste 2 usw. Dies macht sie mit ihrer Lautsprache. Dafür brauchten wir viele Beispieldaten, die wir in die KI gespeist und womit wir diese trainiert haben. Jetzt ist Katharina in der Lage in verschiedensten Situationen über ihre Laute bestimmte Output-Sounds zu triggern. Gleichzeitig nutzen wir aber auch ihre tatsächlichen Laute, da Katharina das auch gerne möchte und diese sind dann als Teil des Outputs live auf der Bühne zu hören. Gemeinsam mit der Band „Kaleidomars“ steht sie dann auf der Bühne.
Sind denn nun noch weitere Live-Konzerte geplant? Was sind die Pläne für das Kaleidofon?
Wir wollen das Kaleidofon sehr gerne kollektiv verfügbar machen und mit anderen Leuten zusammen das Kaleidofon nutzen, um andere individuelle vermeintliche Behinderungen bzw. Besonderheiten mit reinzubringen. Auch ich würde gerne irgendwann mit Katharina zusammen jammen können. Wir unterscheiden hier nicht zwischen „normal“ und „unnormal“, es geht einfach nur darum, gemeinsam zu musizieren und das ist unser ausgesprochenes Ziel.
Derzeit geht es aber noch darum, das Kaleidofon für Katharina weiterzuentwickeln, sodass sie mehr Klassen zur Verfügung hat, die sie triggern kann und dass wir an dem Output-Sound arbeiten. Man muss dazu auch sagen, dass es im Moment ein Projekt ist, in das wir hauptsächlich selbst investieren, weil wir daran glauben. Wir sind auch gerade auf der Suche nach Sponsor*innen und Fördertöpfen, über die wir die Weiterentwicklung finanzieren können und freuen uns über jeden Hinweis oder jeden Support.
Durch eins unserer anderen KI-Projekte, die „künstlich intelligente Muse“ mit Roman Lipski, in dem es darum geht, mit KI Inspiration in der Malerei zu begreifen, habe ich das Wichtigste gelernt: Es geht darum, dranzubleiben. Nicht immer nur schnell einen Prototypen entwickeln und wenn es beim ersten Mal nicht direkt klappt oder niemand dafür bezahlt, diesen direkt wegzuschmeißen. Das ist nicht nachhaltig und daran glaube ich nicht. Natürlich ist aber nicht alles schwarz-weiß, man muss auch rechtzeitig wissen, wann Schluss ist und wann man an anderer Stelle aktiv werden muss. Aber gerade bei diesen Projekten, die ganz am Anfang stehen, bei denen wir noch Pionier*innenarbeit leisten, ist es aus meiner Sicht sehr wichtig, dranzubleiben, und im Zweifel auch mal in Kauf zu nehmen, wenn etwas mal eine Zeit lang liegen bleibt. Irgendwann einfach den Faden wieder aufnehmen, den richtigen Moment finden und die richtigen Leute zum richtigen Zeitpunkt treffen und auf einmal sind wieder ganz andere Sachen möglich.
Ist das auch etwas, dass du generell jungen KI-Unternehmen empfehlen würdest, also dranbleiben und hinterher sein?
Unbedingt! Aber es ist wie gesagt auch nicht schwarz-weiß, also es ist auf der anderen Seite auch weise, Dinge rechtzeitig abzubrechen. Gerade wenn es um Entscheidungen geht, hilft es oft, eine Nacht darüber zu schlafen und dann zu entscheiden und sich im Zweifel zwei Tage später wieder umzuentscheiden. Ein „Flexible Mindset“ ist aus meiner Sicht sehr entscheidend. Bloß nicht auf Dingen beharren – „kill your darlings“ gilt auch an der Stelle, also auch bereit sein, gerade diese Dinge, diese Darlings, aufzugeben. Aber im Bereich KI und bei superinnovativen Themen lohnt sich der lange Atem meiner Erfahrung nach wirklich oft.
Gibt es denn noch weitere Themen und Projekte, an denen ihr gerade bei Birds on Mars arbeitet und die du gerne hervorheben möchtest?
Das Kaleidofon ist bei uns in einem Bereich verortet, den wir sol nennen. Sol ist der Name des Mars-Tages, der 40 Minuten mehr als der Tag auf der Erde hat. Diese 40 Minuten wollen wir uns alle jeden Tag gönnen, um an neuen Perspektiven auf KI zu arbeiten, die erstmal keine direkte externe Finanzierung haben, sondern an die wir selbst glauben und aus denen heraus dann neue, auch wirtschaftliche, Dinge entstehen. In diesem sol arbeiten wir gerade an diversen spannenden Themen. Generell sind wir gerade viel im Bereich KI und Musik unterwegs, da haben wir jetzt eine sehr spannende Zusammenarbeit geplant, über die ich im Moment aber leider noch nicht sprechen darf. Ich kann so viel sagen, dass wir zusammen mit einem Musikkollektiv eine generative KI nutzen, um neue interaktive Sound-Landschaften zu generieren. Mehr Infos zur Vielzahl unserer laufenden sol-Projekte findet man unter birdsonmars.com/sol.
Außerhalb unseres sol-Spaces haben wir eine Vielzahl spannender und wichtiger Projekte bei unseren Kund*innen; denn es ist uns auch wichtig in der eigenen Hauptzeit, nämlich in der, in der wir unser Geld verdienen, an Dingen zu arbeiten, auf die wir stolz sind und die wichtig und wertvoll sind. Nur so schafft man es auch, eine nachhaltige und längerfristige Unternehmung zu bleiben.
Ein Beispiel: Wir haben gerade mit unserem Kunden Deutsche Bahn ein Projekt live gebracht, bei dem es darum geht, basierend auf internen und öffentlichen Daten ein Modell zu trainieren, das es ermöglicht, vorherzusagen, wann und wo welcher Parkplatz wie belegt ist. Das hilft dabei, Ressourcen zu sparen, da sonst jeder einzelne Parkplatz mit teurer, aufwendiger und pflegeintensiver Sensorik sukzessive weiter hätte ausgestattet werden müssen. Wir nutzen quasi einzelne Sensoren zur Kalibrierung der Machine-Learning-Modelle, sind aber grundsätzlich in der Lage, flächendeckend vorherzusagen und den aktuellen Zustand der Auslastung von Parkplätzen zu ermitteln. Dies ist ein Baustein in der Mobilität der Zukunft, da Nutzer*innen gerne rechtzeitig erfahren wollen, wo ist es wie voll, wo gibt es eventuell Engpässe, um eben bestmöglich planen zu können im individuellen Transport.
Ein weiteres Projekt, an dem wir arbeiten, ist aus den Bereichen der Nachhaltigkeit und dem Klimaschutz. In dem Bereich sind wir sehr aktiv, da wir glauben, dass KI einen großen Beitrag im Bereich Klimaschutz und Klimaanpassung leisten kann. Das Projekt setzen wir zusammen mit der Technologiestiftung Berlin im CityLab um. Das CityLab hat sich auf die Fahne geschrieben mit Civic Innovation – also (offenen) Daten, Technologien, Hardware – für Stadt, Ämter und letztendlich uns Bürger*innen neue Lösungen zu entwickeln, die uns das Leben in der Stadt attraktiver und einfacher machen. Dazu gehört auch das Thema Nachhaltigkeit. Hier sind wir in Kooperation mit der Stadt Berlin unterwegs, das Projekt QTrees – Quantified Trees (zu erreichen unter www.qtrees.ai) – umzusetzen, mit dem wir vorhersagen wollen, welche Bäume in der Stadt am dringendsten Wasser benötigen. Dafür sammeln wir offene Daten von den Wolken bis zur Wurzel, berechnen Beschattungen und nutzen bereits verbaute Sensoren und ihre Daten. Wir bauen also einen sehr einzigartigen Datensatz auf und kombinieren alle vorhandenen Daten, um vorauszusagen, welcher Baum am dringendsten Wasser braucht. Im Moment wird im wahrsten Sinne nach dem Gießkannen-Prinzip gegossen und da Wasser immer knapper wird, auch hier vor Ort, soll QTrees hier einen Beitrag leisten. Im Idealfall, wenn es für die Stadt Berlin klappt, könnte das Modell perspektivisch auch für andere Städte eingesetzt werden.
Wie siehst du denn generell die Entwicklungen im Bereich Künstliche Intelligenz in Berlin?
Man kann klar sagen, dass sich gerade viel bewegt, einige Initiativen und Verbände, wie zum Beispiel den KI Park, KI Bundesverband oder den Bitkom. Und im Bereich Engagement wie auch durch Berlin Partner merkt man einfach, es passiert viel, es wird gesehen und es wird auch an diversen Stellen versucht, zu unterstützen. Die Unternehmen dieser Welt fragen es auch immer mehr und mehr nach. Ich muss allerdings auch klar sagen, dass viele Konzerne, die wirklich Geld in die Hand nehmen, nicht aus Berlin sind, sondern eher aus NRW oder dem süddeutschen Raum – das ist meine subjektive Wahrnehmung aus dem operativen Geschäft heraus. Ich muss auch sagen, dass der Mittelstand immer noch hinterher hängt und auch nicht die Investionsvolumina hat, die es braucht, wenn es um die Entwicklung von KI geht. Dafür muss man richtig Geld in die Hand nehmen und das ist unter anderem in der aktuellen Zeit auch nicht immer leicht. Trotzdem spüre ich eine klare Nachfrage. Förderung seitens der Politik ist aber auch noch sehr „typisch deutsch“ mit ewigen Aufwänden und teilweise einfach nicht für wirtschaftsorientierte Unternehmen ausgelegt. Am Ende gewinnen da immer die üblichen Verdächtigen. Für viele kleinere Wirtschaftsunternehmen gibt es oftmals noch zu viele Hürden, eine Start-Investion für neue Projekte zu bekommen. Das muss in meinen Augen unbedingt angegangen werden. Junge Unternehmen, die gerade erst starten, sind oftmals gar nicht in der Lage, davon zu profitieren. Ich denke, das muss größtenteils entbürokratisiert werden, da wir sonst diese Innovationsprojekte nicht schaffen. Wenn ich als Geschäftsführer wirklich nur an Gewinnen interessiert wäre, würde es so ein Projekt wie das Kaleidofon nicht geben.
Um Berlin als KI-Standort noch mehr zu etablieren, bräuchte es also demnach ein Update in diesem Förderbereich?
In den Zielsystemen – genau. Wenn man Wirtschaft wie eine KI versteht, die eine Optimierungsaufgabe hat, dann muss diese Zielfunktion anders programmiert werden. Es muss viel mehr um Nachhaltigkeit und Partizipation, um Kreation gehen. Berlin ist DER Standort, an dem die kreativen Leute sitzen. Aus der ganzen Welt ziehen Menschen hier her, weil es der Place-to-be ist, auf so vielen Ebenen. Diese Stärke muss man ausspielen und auch deswegen das Thema KI und Kreativität verbinden. Dafür braucht es Geld, Mut, Offenheit und den Willen und Raum, einfach mal loszulegen.