© Lyceum

17 Dezember 2025

„Unser Anspruch ist nicht nur aufzuholen, sondern einen neuen Standard zu setzen.”

Europa steht im Bereich KI-Infrastruktur vor einer großen Herausforderung: Während die USA über enorme Rechenzentrumskapazitäten verfügen, zeigt sich in Europa eine deutliche Lücke – sowohl bei verfügbarer Hardware als auch bei der effizienten Nutzung bestehender Ressourcen. Vor diesem Hintergrund arbeitet Lyceum an einer Plattform, die GPU-Kapazitäten besser auslastbar machen und Entwicklungsprozesse vereinfachen soll. Magnus Grünewald, CEO des Unternehmens, verortet diese Arbeit bewusst in Berlin, wo Forschung, Startups und Industrie eng miteinander verknüpft sind.

Im Gespräch erläutert er, wie Europas Infrastrukturdefizit einzuordnen ist, welche Rolle Berlin für die Weiterentwicklung von KI-Technologien spielt und welche Impulse der neue #ai_berlin hub für Vernetzung und digitale Souveränität setzen könnte. Außerdem spricht er über Anforderungen moderner KI-Teams, die Bedeutung effizienter GPU-Orchestrierung und darüber, wie sich technische Leistungsfähigkeit, Kostenbewusstsein und Nachhaltigkeitsfragen im Infrastrukturaufbau miteinander verbinden lassen.

 

Hallo Magnus, eine aktuelle Bitkom-Studie zeigt: Die USA haben 48 Gigawatt Rechenzentrumskapazität, Deutschland etwa 3 Gigawatt. Lyceum hat im Juni 10,3 Millionen Euro eingesammelt, um europäische KI-Infrastruktur aufzubauen. Wie schätzt Du diese Lücke ein – und welche Rolle könnte Lyceum beim Aufholen spielen?

Die Lücke ist bei echten KI-Rechenzentren – also wassergekühlten Anlagen mit sehr hoher Leistungsdichte – sogar noch größer. Reine Rechenzentrumskapazität ist nur ein Teil des Problems. Europa hängt sowohl bei der Anzahl verfügbarer GPUs, also Grafikprozessoren für KI-Berechnungen, als auch beim Software-Stack deutlich hinterher.

Wir entwickeln eine Infrastruktur-Plattform, die europäische GPU-Kapazitäten nicht nur verfügbar, sondern vor allem besser nutzbar macht. Unsere Software eliminiert Out-of-Memory-Fehler – Speicherüberlastungen, die Berechnungen zum Absturz bringen – verdoppelt durch intelligente Orchestrierung typischerweise die GPU-Auslastung und reduziert Setup- sowie DevOps-Aufwand, also den Betriebsaufwand für Entwickler, um bis zu 90 Prozent.

Während sich viele primär auf neue Hardware fokussieren, lösen wir die systemische Ineffizienz. Heute liegen durchschnittliche GPU-Auslastungen bei großen Cloud-Providern bei 40 bis 60 Prozent. Wir setzen KI-gestützte Ressourcenzuweisung ein, die effektive Compute-Kosten um Faktor 2,5 senkt – das fühlt sich an, als würde man die Kapazität mehr als verdoppeln, ohne ein einziges neues Rechenzentrum zu bauen. Unser Anspruch ist nicht nur aufzuholen, sondern einen neuen Standard zu setzen.

 

Ihr habt euren Hauptsitz in Berlin und Zürich, baut aber Kapazitäten in Dänemark und Frankreich auf. Warum bleibt Berlin euer Headquarter?

Berlin ist unser Headquarter, weil hier Talente aus ganz Europa zusammenkommen. Die Stadt vereint eine lebendige Tech- und Gründerszene mit einer starken Deep-Tech-Community und einer Mentalität, die aufs Bauen und schnelle Umsetzen ausgerichtet ist – genau das Umfeld, in dem Lyceum entstehen soll. Viele der spannendsten AI-first-Teams Europas haben hier ihren Sitz. Das verschafft uns direkten Draht zu frühen Nutzer:innen, mit denen wir unsere Infrastruktur nah am tatsächlichen Bedarf entwickeln.

Unser Team in Zürich und unsere GPU-Kapazitäten in Dänemark und Frankreich ergänzen das ideal: Von Berlin aus denken wir konsequent europäisch, während die Hardware dort steht, wo sie nachhaltig und effizient betrieben werden kann. Entscheidend ist, dass KI-Teams in Europa Zugang zu leistungsfähiger, souveräner Infrastruktur haben – unabhängig davon, wo die Racks stehen.

 

Der im Oktober eröffnete #ai_berlin hub soll Startups, Corporates und Forschung vernetzen. Was erhofft ihr euch von der Hub-Initiative?

Der #ai_berlin hub kann eine wichtige Rolle spielen – insbesondere in drei Bereichen. Erstens: Vernetzung mit echtem Output, nicht nur Veranstaltungen. Startups profitieren von gezielten Matchmaking-Formaten – zu Forschungseinrichtungen, anderen Startups oder Corporates. Hier könnte der Hub als „Deal Enabler" auftreten.

Zweitens: mehr Sichtbarkeit für europäische KI-Infrastruktur. Noch immer dominiert die Erzählung, dass ernsthaftes KI-Training automatisch zu AWS oder Google führen müsse. Der Hub könnte europäische Alternativen sichtbarer und vergleichbarer machen. Und drittens: eine starke Brücke in Richtung Politik. Bei Themen wie KI-Regulierung oder Datacenter-Förderung ist die Übersetzung zwischen Praxis und politischen Entscheidungen zentral. Der Hub kann die Perspektiven des Ökosystems bündeln. Was Startups konkret benötigen: weniger Bürokratie, flexible Pay-per-Use-Modelle statt langer Rack-Verträge, einfache Integration in bestehende Workflows und transparente Kostenprognosen.

 

Ihr versprecht „One-Click GPU Deployment" und automatische Hardware-Auswahl. Kannst Du an einem konkreten Beispiel zeigen, wie das funktioniert?

Ein Startup entwickelt beispielsweise ein PyTorch-Modell – ein Framework für maschinelles Lernen – für medizinische Bildanalyse. Bisher läuft das typischerweise so: Man wählt bei AWS eine GPU-Instanz, richtet SSH-Zugänge ein, also verschlüsselte Fernverbindungen zum Server, konfiguriert das Environment, kopiert seinen Code rüber und hofft, dass der Arbeitsspeicher reicht. Kommt nach zwei Stunden ein Out-of-Memory-Fehler, beginnt das Ganze mit einer größeren und teureren Instanz von vorne.

Mit Lyceum bleibt der Developer in seiner gewohnten Umgebung – etwa VSCode oder Jupyter. Dort schreibt er den Code wie immer und klickt auf „Run on GPU". Unsere Plattform analysiert den Code in Echtzeit, schätzt Speicherbedarf und Laufzeit, empfiehlt die passende Hardware – etwa eine A100 statt einer überdimensionierten H100 – und zeigt vorab eine klare Kostenprognose. Im Hintergrund wird der Code automatisch containerisiert, auf der optimalen GPU ausgeführt, und die Ergebnisse landen direkt in der IDE, der Entwicklungsumgebung, zurück. Ohne SSH, ohne YAML-Konfigurationsdateien – die üblicherweise komplexe Systemabläufe beschreiben – und ohne Trial-and-Error.

 

Wie überzeugt man Organisationen, die jahrelang AWS oder Google Cloud genutzt haben?

Unser stärkstes Argument ist Kosteneffizienz: Bei klassischen Clouds zahlen Sie für eine Instanz, egal ob sie zu 40 oder 100 Prozent ausgelastet ist. Wir optimieren Auslastung und Hardware-Wahl automatisiert und rechnen nutzungsbasiert ab – in vielen Fällen entstehen so Einsparungen von rund 60 Prozent. Gleichzeitig eliminieren wir Trial-and-Error, indem wir den Code vorab analysieren, die passende Hardware auswählen und klare Laufzeit- und Kostenprognosen liefern, was teure Fehlversuche vermeidet.

Hinzu kommt, dass wir EU-Datenresidenz ohne Performance-Abstriche ermöglichen, was insbesondere für Gesundheitssektor, Finanzindustrie und öffentliche Einrichtungen zentral ist. Unsere Developer Experience ist ein weiteres Alleinstellungsmerkmal: Entwickler:innen bleiben in ihrer gewohnten IDE und müssen keine Cloud-Konsolen oder komplexen Orchestrierungs-Stacks bedienen. Und nicht zuletzt adressieren wir digitale Souveränität – europäische Infrastruktur macht Unternehmen weniger abhängig von Preispolitik und geostrategischen Entscheidungen der Hyperscaler.

Natürlich stoßen wir auch auf Widerstände: Lock-in im AWS-Ökosystem, Procurement-Abteilungen, die den bekannten Namen bevorzugen, oder die generelle Trägheit bestehender Prozesse. Unsere Antwort darauf sind pragmatische Pilotprojekte, hybride Setups, starke Referenzkunden und konkrete ROI-Rechnungen.

 

EU-Datenresidenz und Nachhaltigkeit gehören zu eurem Angebot. Gleichzeitig hat sich der Strombedarf deutscher Rechenzentren bis 2025 nahezu verdoppelt. Wie geht ihr mit diesem Spannungsfeld um?

Der steigende Energiebedarf durch KI ist real, und wir nehmen das sehr ernst. Für uns ist der wichtigste Hebel, wie effizient wir mit der eingesetzten Energie umgehen. Bei unseren Standorten in Dänemark und Frankreich setzen wir daher bewusst auf Stromsysteme mit hohem Anteil erneuerbarer Energien – die Standortwahl ist ein zentraler Bestandteil unserer Nachhaltigkeitsstrategie.

Gleichzeitig erhöhen wir durch unsere Software die tatsächliche Auslastung der GPUs und vermeiden Leerlauf. Wenn ein Rechenzentrum seine GPUs im Schnitt nur zu 40 Prozent nutzt, ist das verschenkte Energie. Steigt die Auslastung, sinkt der Energieverbrauch pro Einheit Rechenleistung entsprechend. Unser Ziel bleibt klar: eine europäische KI-Infrastruktur aufzubauen, die nicht nur souverän und bezahlbar ist, sondern auch technisch so effizient arbeitet, dass sie pro Ergebnis deutlich weniger Energie verbraucht.

 

Vielen Dank für das Gespräch.