Die neueste Ausgabe des AI Monday hatte etwas ganz Besonderes zu bieten: Gemeinsam mit dem Light Art Space (LAS) wurde die Berliner AI-Community zu einem exklusiven Besuch von "Life after BOB" in der Halle am Berghain eingeladen. Life After BOB" von Ian Cheng ist eine 50-minütige episodische Anime-Serie, die sich eine zukünftige Welt vorstellt, in der KI-Entitäten in den Köpfen der Menschen zusammenleben. Für diese Ausstellung hat Cheng seine Animation zum ersten Mal auf die physische Ebene gebracht und eine faszinierende neue Umgebung geschaffen, die es den Besuchern ermöglicht, die psychologische Thematik, die Geschichte und die Welt von Life After BOB materiell zu erleben.
Im Anschluss an das Screening fand eine Podiumsdiskussion zur Zukunft der KI-Mensch-Interaktion mit Rahel Flechtner (Wissenschaftlerin am DFKI und FHP Interaction Design Lab), Florian Dohmann (Gründer & Chief Creative bei Birds on Mars) und Prof. Dr. med. Surjo Soekadar (Professor für Klinische Neurotechnologie an der Charité Berlin) sowie Moderator Andreas Schepers, Head of Communications am DFKI Berlin, statt.
Prof. Dr. med. Surjo Soekadar, Rahel Flechtner, Andreas Schepers und Florian Dohmann (von links nach rechts) © Light Art Space
Die Diskussion wurde auf Englisch geführt und Sie finden sie in Gänze hier:
Andreas Schepers: Vielen Dank, dass Sie alle hier sind. Beginnen wir mit der Podiumsdiskussion und versuchen wir zu verstehen, wie der aktuelle Stand der Mensch-Maschine-Interaktion und der Mensch-KI-Interaktion aussieht. Und vielleicht geht die erste Frage an Rahel als Forscherin. Heute interagieren wir bereits täglich mit KI. Jede*r hat sein eigenes Smartphone oder bestellt Dinge über Amazons Alexa. An welchen Projekten arbeiten Sie, um den nächsten Schritt in der Mensch-Maschine-Interaktion zu erreichen?
Rahel Flechtner: Ich glaube, dass sich derzeit viel in Bezug auf die Veränderung unserer Beziehung zur Technologie tut. Wir nutzen die Technologie seit langem als Werkzeug, aber in den letzten Jahren hat sich ein Wandel vollzogen, bei dem die Technologie mehr und mehr zu einer Art Gegenstück wird. Wir fangen an, Dinge mit der Technologie zu verhandeln, und das ist ein sehr interessantes Konzept, das in der Forschung diskutiert wird.
Andreas Schepers: Erzähl uns mehr über das Konzept. Was bedeutet das genau?
Rahel Flechtner: Es geht darum, dass wir neue Paradigmen und auch neue Richtlinien entwickeln müssen, um die Art der Beziehungen zu gestalten, die wir mit der Technologie haben wollen. Produkte wie Alexa sind auf eine sehr menschenähnliche, anthropomorphe Weise gestaltet. Aber könnte man nicht auch das System und die zugrundeliegende Funktionalität in Betracht ziehen?
Andreas Schepers: Sehr interessant. Holen wir Florian mit ins Boot. Während Rahel eher für die Forschung zuständig ist, vertrittst du für mich die kreative und geschäftliche Seite. Eure Agentur arbeitet mit echten Kund*innen zusammen und ihr setzt Projekte um. Wenn du heute an die Interaktion zwischen Mensch und KI denkst, was gibt es da?
Florian Dohmann: Ein paar Dinge, die du erwähnt hast, Rahel, finde ich sehr interessant. Was die Unternehmen hier in Deutschland angeht, würde ich sagen, dass KI in den letzten Jahren immer produktionsreifer geworden ist. Als ich in der Datenwissenschaft und im Bereich des maschinellen Lernens anfing, wo man reale Systeme entwickelt, ging es viel um die Erforschung und den Bau von Prototypen und die Bestätigung von Konzepten, aber in den letzten Jahren wurde es dann wirklich zu IT. Es geht nicht nur um Mathematik und theoretische Physik – das ist im Hintergrund, um die Netzwerke zu verstehen –, sondern darum, es wirklich zur Produktionsreife zu bringen und schließlich zu einer Software für angewandte KI. Die mathematische Theorie wird also genutzt, um sie in Softwarelösungen umzusetzen. Es wird auch immer interaktiver und unterhaltsamer. Man beginnt, KI wirklich zu erleben.
Andreas Schepers: Wir werden später auf jeden Fall darauf zurückkommen. Surjo, du bist Experte für ein faszinierendes Thema, nämlich die Schnittstelle zwischen Computer und Gehirn. Vieles, was wir in dem Film gesehen haben, bezieht sich auf diese Technologie, als ob sie heute schon verfügbar wäre. Kannst du uns eine kurze Einführung geben, wo wir heute stehen, und ist es wirklich so beängstigend, wie ich es mir vorstelle?
Surjo Soekadar: Nun, wir werden sehen. Wir befinden uns jetzt in einem entscheidenden Moment. BCI - Brain Computer Interfaces - wurden bereits vor 50 Jahren konzipiert und erst in den letzten Jahren wirklich klinisch eingesetzt. Wenn man zum Beispiel gelähmt ist, sich nicht bewegen und nicht sprechen kann, ist es möglich, die Gehirnaktivität zu trainieren, um zu kommunizieren. Das war also die erste klinische Anwendung einer Gehirn-Computer-Schnittstelle, und jetzt sind wir in einem Stadium, in dem wir die Gehirnaktivität beispielsweise in Fingerbewegungen einer Prothese umsetzen können, die es einem vollständig Gelähmten ermöglicht, nach einer Flasche zu greifen und zu trinken. Dies war eine ein-direktionale Hirn-Computer-Schnittstelle, aber jetzt haben wir auch bi-direktionale Hirn-Computer-Schnittstellen implementiert, so dass wir nicht nur das Gehirn auslesen, sondern auch das Gehirn direkt stimulieren. Wenn man beispielsweise eine Prothese und Sensoren in den Fingerspitzen hat und nach einer Flasche greift, können wir das Gehirn stimulieren und man kann die Flasche mit dem Gehirn fühlen, ohne dass der Körper stimuliert wird.
Man kann sich aber auch vorstellen, dass dies im kognitiven Bereich oder in effektiven Bereichen eingesetzt werden kann. Wir arbeiten derzeit an der motorischen Domäne, weil das der dringende Bedarf an BCIs ist, aber natürlich gibt es viele Menschen - eine Milliarde Menschen, die an einer Hirnstörung leiden, die mit anderen Bereichen zusammenhängt, wie Depressionen oder Zwangsstörungen, und das wurde hier im Film gezeigt. Es gibt viele Gründe, warum man psychisch krank werden kann, und die Frage ist nun, ob man mit einem solchen BCI eine Verschiebung in der Hirnaktivität feststellen kann, die anzeigt, dass man tatsächlich aus dem, sagen wir mal, gesunden Bereich herauskommt und in einen Krankheitsbereich gelangt, und diesen Prozess dann direkt stoppen kann. Wir machen das bereits mit Patient*innen, die depressiv sind, durch nicht-invasive Hirnstimulation und das hilft ihnen, ihre Depression zu überwinden. In Zukunft wird das automatisiert werden. Wir werden also das Gehirn bereits stimulieren, bevor eine klinisch relevante Depression auftritt und darauf zielen wir ab.
Rahel Flechtner: Die erste Frage, die mir in den Sinn kam, war: Werden wir in Zukunft unsere Kaffeemaschine mit unserem Gehirn starten können und entscheiden, ob es die Kaffeemaschine oder unser Mixer ist? Glaubst du, dass das möglich sein wird?
Surjo Soekadar: Sicher, es ist mit viel Aufwand und Technik verbunden und extrem teuer, aber im Grunde könnte man es schon jetzt machen.
Andreas Schepers: Aber könnten wir aus Versehen etwas verwechseln?
Surjo Soekadar: Das ist ein Problem, aber das ist schon ein Problem ohne das BCI, aber was bei all diesen Interaktionen sehr wichtig ist, ist, dass man immer eine Vetomöglichkeit hat. Und das ist auch etwas, das unserem Nervensystem innewohnt, so dass man, wenn man merkt, dass man etwas falsch macht, direkt ein Veto einlegen kann. Es gab eine große Diskussion über den freien Willen und die Quintessenz war, dass wir vielleicht nicht in allen Bereichen den vollen freien Willen haben, aber wir haben immer die Freiheit, ein Veto einzulegen. Bei der Interaktion zwischen Mensch und Maschine muss der Mensch immer die Oberhand behalten.
Florian Dohmann: Darf ich hier etwas fragen? Wie fühlt es sich an, eine Flasche anzufassen?
Surjo Soekadar: Ich habe dieses Implantat nicht, aber wenn man Patient*innen fragt, sagen sie, dass es sich um ein seltsames Kribbeln handelt, das nicht sehr ausgeprägt ist. Es ist ein elektrisches Signal, das von den oberen Gliedmaßen ausgeht, aber man kann nicht genau sagen, was es ist. Je mehr man mit dieser Art von Feedback konfrontiert wird, desto besser kann man es unterscheiden.
Rahel Flechtner: Ich kann mir vorstellen, dass es sehr individuell ist, wie unser Gehirn in diesem Moment aussieht und über eine bestimmte Aktion nachdenkt. Ich vermute also, dass es einen sehr intensiven Trainingsprozess gibt, den ich durchlaufen muss? Aus einer Designperspektive wäre es interessant, wie dieser ganze Prozess aussehen würde.´
Surjo Soekadar: Wir zeichnen also die Gehirnzellen auf und indem wir den Kreislauf mit der Umgebung schließen, lernt man, die Aktivitäten der Zellen zu modulieren, und so lernt man, das externe Gerät zu steuern. Wir entschlüsseln also nicht wirklich, was im Gehirn vor sich geht, und es gibt eine Menge Dinge, die wir nicht verstehen, aber wir trainieren bestimmte Nervenzellen, um diese Art von erlernter Konditionierung auszuüben. Zu entschlüsseln, was tatsächlich in unserem Gehirn vor sich geht, ist eine äußerst schwierige Aufgabe, und es kann nur innerhalb bestimmter Freiheitsgrade funktionieren, wenn Sie also fünf verschiedene Kaffeemaschinen haben und eine davon benutzen wollen, gibt es nur fünf Freiheitsgrade. Aber so ist unser Gehirn eigentlich nicht aufgebaut. In bestimmten Bereichen ist es vielleicht möglich, ein BCI mit begrenzten Freiheitsgraden zu verwenden, und die Klassifizierungsgenauigkeit ist ziemlich hoch, aber im wirklichen Leben ist es wirklich weit davon entfernt, brauchbar zu sein.
Rahel Flechtner: Es wird mir also nicht passieren, dass ich, wenn ich in öffentlichen Verkehrsmitteln sitze und beschließe, meine Musik zu hören, aber vergessen habe, meine Kopfhörer mitzunehmen, mich in der Öffentlichkeit nicht schämen muss, weil sie laut abgespielt wird?
Surjo Soekadar: Ich denke, die Interaktion würde folgendermaßen ablaufen: Wir zeichnen viele Biosignale auf, nicht nur von unserem Gehirn, sondern wir können auch aus unserem Verhalten ableiten, was wir tun möchten. Ob du die Musik lauter spielen möchtest oder nicht, und dann kombinieren wir diese Biosignale so, dass sie einen Sinn ergeben, ohne dass du etwas sagst.
Andreas Schepers: Das ist eine interessante Perspektive für die Art von Anwendungen, die wir uns vorstellen können. Du als Kreativer, Florian, was hältst du davon? Was ist deine Traumanwendung für ein BCI?
Florian Dohmann: Oh, sehr gute Frage. Was ich im Moment sehr interessant finde, ist, dass wir alle von diesen großen Meilensteinen in der Entwicklung der KI lesen. Vor nicht allzu langer Zeit gab es den ersten Schachcomputer, und seitdem ist eine Menge passiert, wie autonomes Fahren und all diese Fälle, in denen bestimmte Entwicklungen vorhergesagt werden. All das ist traditionelles Maschinelles Lernen. Systeme, die aus der Vergangenheit lernen und in der Lage sind, diese zu analysieren, können wir zum Beispiel für Vorhersagen nutzen. Ich glaube, was wir derzeit sehen, ist, dass wir immer mehr für sehr unterschiedliche Fälle nutzen können. Es ist wie ein neuer Prozess, der gerade beginnt. Im kreativen Bereich haben wir zum Beispiel DALL-E, das die kreative KI-Industrie kommerzialisiert, was vor ein paar Jahren noch eine Nische war. Jetzt skaliert sie. Man kann einen Text eingeben, und die KI generiert daraus ein Bild. Das ist faszinierend und verrückt und es verändert das Paradigma, wie man über KI denkt. Es gibt jetzt zum Beispiel eine neue Disziplin namens Prompt Design, bei der man lernt, wie man Fragen stellt, um die KI dazu zu bringen, die gewünschte Ausgabe zu erzeugen.
Andreas Schepers: Das ist irgendwie ironisch, denn wir sprachen gerade über Computerschnittstellen, und jetzt sind wir wieder bei den Befehlszeilen. Um eine richtige Eingabeaufforderung zu erstellen, muss man eine Vorstellung davon haben, wie eine Maschine funktionieren könnte…
Florian Dohmann: Das ist großartig, denn es bringt uns zu dem Punkt, wie wertvoll es ist, Fragen zu stellen, und vielleicht ist die menschliche Kreativität besser darin, Fragen zu stellen, und die Maschine ist vielleicht in einigen Teilen besser darin, die Antwort darauf zu geben. Ich denke, dass die KI viel vielfältiger und bunter sein kann, indem man sie nicht nur für diese klassischen Zwecke einsetzt, sondern auch für Klimazwecke. All das ist nur ein Anfang und es gibt so viele Möglichkeiten. Meine ideale KI wäre eine KI, die diverser ist und von allen aktiv entwickelt wird. Wir haben jetzt die Chance, daran zu arbeiten. Es ist nicht so, dass die KI entscheidet, wie die Zukunft aussehen wird, sondern wir sind es.
Andreas Schepers: Ihr habt Diversität und Inklusion erwähnt, und wir sehen bereits, dass KI-Technologie dabei helfen kann, Menschen mit besonderen Bedürfnissen zu integrieren. Rahel, im DFKI gibt es derzeit Projekte, bei denen man KI einsetzt, um Menschen mit besonderen Bedürfnissen zu helfen, zum Beispiel TEXAS. Kannst du uns darüber ein wenig erzählen?
Rahel Flechtner: Es ist eine Art interaktive Hose, die man zur Rehabilitation tragen kann und mit der man seine motorischen Fähigkeiten trainiert, indem man die Körperbewegungen misst. Es gibt auch ein anderes Projekt, an dem ich gerade arbeite, bei dem es um psychische Gesundheit geht und bei dem ein Chatbot eingesetzt wird, um gefährdeten und ängstlichen Menschen einfach durch Zuhören zu helfen. Auch das könnten sehr interessante Anwendungsbereiche sein.
Andreas Schepers: Ich möchte gerne auf Florians sehr positiven Ausblick auf KI zurückzukommen, dass wir die Entwicklung der KI beeinflussen können. Ich würde gerne von dir, Surjo, wissen, wohin deine persönliche Forschung führen wird? Was ist deine Erwartung, wo werden wir in 5 oder 10 Jahren stehen?
Surjo Soekadar: Ich bin Arzt und mein Ziel ist es, die Patient*innen zu befähigen, zu stärken. Das ist etwas, das wir erwähnt haben und das auch im Film gezeigt wird. Die Frage ist, wo die Hilfe aufhört und wo die Rehabilitation beginnt. Wenn du zum Beispiel dein Smartphone und dein GPS benutzt, kann ich dir sagen, dass dein Hippocampus nach einem Jahr wahrscheinlich schrumpfen wird. Wir unterstützen dich also und dein Gehirn baut ab, weil du die Fähigkeit nicht mehr brauchst. Die große Frage ist also, wie wir die Technologie nutzen können, um uns zu befähigen und uns besser zu machen. Aber was ist besser? All das wurde in dem Film angesprochen, und ich denke, das ist eine sehr kritische Frage, denn man konnte sehen, dass die Technologie uns hier und da hilft, aber sie befähigt uns nicht wirklich. Und das ist ein sehr kleiner, aber entscheidender Unterschied.
Florian Dohmann: Und es geht auch nicht nur um Menschen, sondern auch um Tiere und unseren Planeten, da gibt es viel zu tun - nicht nur für uns.
Surjo Soekadar: Ja, das ist ein sehr wichtiger Punkt, um eine Verbindung zu schaffen und um zu verstehen, was wir sind. Das ist natürlich eine Frage, die noch niemand wirklich beantwortet hat, aber letztlich müssen wir uns fragen, was wir eigentlich sind und worin der Unterschied zwischen uns und Tieren besteht.
Andreas Schepers: Florian, du hast die großen Sprünge erwähnt, die in den letzten Jahren gemacht wurden. Traust du dir eine Vorhersage darüber zu, was KI in fünf Jahren leisten könnte?
Florian Dohmann: Wir werden sicher weiter sein, aber in der realen Welt, wo alle Entscheidungen getroffen werden, wo die Ressourcen genutzt werden und wo die Wirtschaft verrückt spielt, denke ich, dass wir dort sehr weit von dem entfernt sein werden, was möglich ist. Aber es wird schneller und schneller gehen. Für mich ist es auch wichtig, etwas langsamer zu machen und darüber nachzudenken, was wir aus all den Möglichkeiten da draußen auswählen und wofür wir es nutzen. In fünf Jahren wird das wahrscheinlich noch wichtiger sein als darüber nachzudenken, was mit KI möglich ist, denn es wird eine Menge sein.
Andreas Schepers: Interessant ist, dass du eine Kluft siehst zwischen dem, was technisch machbar wäre, und dem, was wir in der realen Welt tatsächlich sehen werden. Warum? Was sind die Hindernisse?
Florian Dohmann: Organisatorischer Kontext, würde ich sagen. Für mich persönlich ist es einfach, mit meinem Python-Code eine AWS-Maschine laufen zu lassen und ein Github-Projekt herunterzuladen und dann ein Modell zu trainieren und einige schöne Dinge zu erstellen. Aber ich kann damit nicht so viel verändern, denn alle Organisationen weltweit sind sehr langsam, vor allem die Größeren. Die Anpassung an diese neuen Bewegungen, die es da draußen gibt, braucht Zeit. Der ausgefallene Algorithmus in einem Unternehmen macht weniger als ein Prozent dessen aus, was die Menschen bauen, wenn sie eine KI-Lösung entwickeln. Es geht um Strukturen, um Governance, Prozesse, die Einstellung von Mitarbeitern, Datenqualität. Man braucht so viel, um da draußen Werte zu schaffen.
Andreas Schepers: Rahel, wie siehst du die Zukunft konkret und was wären deine Forschungsfragen?
Rahel Flechtner: Eine Frage, die ich mir stelle, ist, ob wir alles tun sollten, was wir tun können, und in welche Richtung wir gehen sollten? Oder gibt es Richtungen, die wir nicht einschlagen sollten? Sollten wir KI-Systeme bauen, die menschliches Verhalten nachahmen und vorgeben, Menschen zu sein - Chatbots oder was auch immer - oder gibt es einen anderen Weg? Dies sind die Fragen, die hoffentlich in der Zukunft beantwortet oder erforscht werden.
Lesen Sie hier mehr über die AI Mondays Berlin.
Mehr Infos und Tickets für "Life after Bob" hier.