© Jonathan Thomas/hexafarms GmbH

12 September 2025

„Selbst die besten Landwirte könnten mit 30 Prozent weniger Ressourcen denselben Ertrag erzielen.“

Die Ernährung einer wachsenden Weltbevölkerung bei gleichzeitigem Klimawandel ist eine der größten Herausforderungen für die Landwirtschaft. Gewächshäuser sind bereits Teil der Lösung, doch die Steuerung unzähliger Variablen – von der Pflanzengesundheit und Bewässerung bis hin zu Arbeitskräften und Marktnachfrage – bleibt äußerst komplex. Hier kommt Hexafarms ins Spiel.

Das von David Ahmed gegründete Start-up mit Sitz in Berlin integriert künstliche Intelligenz (KI), Computer Vision (CV) und proprietäre Internet-of-Things-Hardware (IoT) direkt in den Gewächshausbetrieb. Was mit Sensoren und Kameras in seinem eigenen Zimmer begann, hat sich zu einer Plattform entwickelt, die auf Hunderten von Hektar in zehn Ländern eingesetzt wird und es Landwirten ermöglicht, Erträge zu prognostizieren, Krankheiten frühzeitig zu erkennen und mehr als 80 Echtzeitparameter auszuwerten.

Im Interview erzählt David, wie Hexafarms KI-Modelle entwickelt hat, die für verschiedene Kulturen und Umgebungen geeignet sind, reflektiert über die Nominierung als Finalist für den Deep Tech Award 2025 und erklärt, warum Berlin ein fruchtbarer Boden für die Skalierung von Deep-Tech-Startups ist. Außerdem spricht er über die dringende Notwendigkeit eines „GPT-Moments” in der Landwirtschaft, die Möglichkeiten der KI, die Lebensmittelproduktion weltweit ressourceneffizienter und widerstandsfähiger zu machen, und darüber, wie Hexafarms ein intelligentes „Betriebssystem” für die kommerzielle Landwirtschaft aufbaut.

 

Hallo David, Hexafarms bringt KI und Computer Vision direkt ins Herzstück von Gewächshäusern – von der Früherkennung von Krankheiten bis zur Ertragsprognose. Was war der Moment oder die Erkenntnis, die Sie zu der Aussage „Wir können das mit Deep Tech lösen“ veranlasst hat, und wie haben Sie angefangen, Landwirtschaft und KI auf eine Weise zu verbinden, die in der Praxis tatsächlich funktioniert?

Komplexität. Es ist verblüffend, wie viele Vorgänge und Datenströme in einem typischen Gewächshaus noch manuell verwaltet werden. Beispielsweise kann die Laufstrecke pro Hektar bis zu 2 km betragen, wobei auf beiden Seiten Pflanzen stehen, was bedeutet, dass man einfach nicht alles überprüfen kann. Ein Team kann aus 10 bis 200 Personen bestehen, und man muss verstehen und entscheiden, was jeder tun soll. Darüber hinaus müssen Sie unzählige Faktoren berücksichtigen – Düngemittelwerte, Feuchtigkeit, Temperatur, Sonneneinstrahlung, Licht und vieles mehr. Da wurde uns klar, dass wir Systeme brauchten, die all diese Werte erfassen und dabei helfen, sie zu verstehen.

Wir ahnten nicht, dass noch weitere Faktoren wie die Pflanzengesundheit, die Marktnachfrage und die Saisonabhängigkeit eine Rolle spielen würden. Zum Glück waren wir darauf vorbereitet. Wir haben tatsächlich mit einer sehr kleinen „Farm” in meinem eigenen Zimmer angefangen. Ich hatte einige einfache Sensoren und eine kleine Kamera installiert, um zu „verstehen”, was vor sich ging. Eins führte zum anderen, und unser Fokus vertiefte sich – nicht nur in den Bereichen KI, maschinelles Lernen (ML) und CV, sondern auch in den Bereichen IoT, Sensorik und Nutzerinteraktion. Heute arbeiten wir mit Hunderten von Hektar Hightech-Gewächshäusern in zehn Ländern.

 

Ihr System verfolgt über 80 Parameter in Echtzeit – das ist eine enorme Datenmenge, die für jeden Landwirt eine Herausforderung darstellt. Was waren die größten Hürden, sowohl in technischer als auch in landwirtschaftlicher Hinsicht, bei der Entwicklung eines Systems, das für so viele verschiedene Kulturen und Gewächshauskonfigurationen geeignet ist?

Wenn Sie sich unsere Server ansehen, erhalten wir etwa jede Sekunde Telemetriedaten – Sensorwerte von Produktionsstätten in unserem gesamten Ökosystem. Darüber hinaus durchläuft tagsüber alle zwei Minuten ein 4K-Bild von einer Produktionsstätte unsere CV-Modelle. Dieses Datenvolumen wächst mit unserer Expansion weiter. Wir haben es geschafft, so vielfältige Anwendungsfälle zu bewältigen, indem wir mit sehr allgemeinen Modellen begonnen haben, die zwar datenintensiv waren, aber über die Tiefe verfügten, um weiter zu lernen. Anschließend haben wir sie für bestimmte Szenarien feinabgestimmt.

Tatsächlich war die Vielfalt der Daten eher ein Segen als ein Hindernis: Je mehr Daten wir sammeln, desto besser werden unsere Systeme und Dienstleistungen. Die eigentliche Herausforderung bestand darin, das erforderliche Niveau und die erforderliche Qualität der Daten zu erreichen. Keine der bestehenden Lösungen funktionierte so, wie wir es uns vorgestellt hatten. Deshalb haben wir frühzeitig in IoT und Hardware investiert und verfügen nun über proprietäre Lösungen, die wir ausschließlich für unsere eigenen Kunden einsetzen.

 

Sie haben etwas entwickelt, das in einem Erdbeertunnel genauso gut funktioniert wie in einem mit Basilikum bepflanzten Gewächshaus. Wie schaffen Sie den Spagat zwischen der Anpassung der Technologie an die individuellen Bedingungen jedes Betriebs und der Wahrung ihrer Universalität, damit sie in großem Maßstab eingesetzt werden kann?

Unsere KI- und CV-Modelle sind verallgemeinert und können für spezielle Anwendungsfälle fein abgestimmt werden. Derzeit ist das oft gar nicht nötig, aber für einige Großkunden oder zur Leistungssteigerung fügen wir Feinabstimmungsfaktoren hinzu. In diesen Fällen bedeutet Feinabstimmung eigentlich nur eine zusätzliche Konfiguration – entweder automatisiert oder manuell. Wir arbeiten sogar daran, diesen Prozess zu automatisieren. Die größte Anpassung findet tatsächlich in unserer SaaS-Plattform statt, mit der die Endnutzer interagieren. Wir haben eng mit jedem einzelnen Kunden zusammengearbeitet, und unsere Dienstleistungen decken sofort 99 % ihrer vorrangigen Anwendungsfälle ab.

 

Als Finalist für den Deep Tech Award 2025 standen Sie neben einigen der zukunftsweisendsten Technologieunternehmen Berlins. Was bedeutet eine solche Anerkennung für ein junges Unternehmen wie Ihres, auch wenn Sie den Preis nicht gewonnen haben – und was ist Ihre wichtigste Erkenntnis aus dieser Aufmerksamkeit?

Um ehrlich zu sein, kannte ich den Deep Tech Award zunächst nicht wirklich – es war unser Team, das mich auf die Bewerbung aufmerksam gemacht hat. Umso lohnender war es, neben so innovativen Unternehmen auf der Bühne zu stehen. Das zeigt, dass unsere Arbeit anerkannt wird, und motiviert uns, weiterzumachen.

 

Berlin hat sich einen Ruf als einer der Deep-Tech-Hubs Europas aufgebaut. Wie hat die Stadt Ihnen Ihrer Erfahrung nach beim Wachstum geholfen – sei es bei der Suche nach den richtigen Mitarbeitern, beim Aufbau von Partnerschaften oder bei der Sicherung von Finanzmitteln? Was bietet Ihnen Berlin, was andere Städte vielleicht nicht bieten?

Die Stadt bietet alles, was ein Start-up in der Anfangsphase brauchen könnte. Das mag vielleicht eine konträre Meinung sein, aber ich finde, dass Berlin perfekt für Deep Tech ist. Meiner Meinung nach bietet Berlin die optimale Balance aus Freiheit, Kapital, Talenten, staatlicher Unterstützung, geografischer Lage und Netzwerken, damit ein Deep-Tech-Start-up in der Anfangsphase erfolgreich sein kann.

 

Eine der Stärken Berlins ist, dass die KI-Szene disziplinübergreifend ist – Forscher, Ingenieure, Gründer und Kreative finden sich oft im selben Raum wieder. Können Sie uns einen Moment schildern, in dem eine lokale Verbindung oder Zusammenarbeit Ihre Arbeit auf eine Weise vorangebracht hat, die Sie nicht erwartet hätten?

Unser allererster Kunde kam aus Berlin! Die Stadt ist nicht gerade für ihre Gewächshäuser bekannt, aber das einzige, das es hier gab, wurde unser Kunde und half uns dabei, das Problem besser zu verstehen.

 

Angesichts des Klimawandels, der die Landwirtschaft weltweit verändert, wo sehen Sie die dringendsten Möglichkeiten für KI, die Lebensmittelproduktion widerstandsfähiger zu machen – sowohl hier in Europa als auch weltweit?

Es gibt ein gewisses Missverständnis und sogar eine romantische Vorstellung, dass Menschen von Natur aus gut in der Landwirtschaft sind – das ist einfach nicht wahr. Wir schätzen, dass selbst die besten Landwirte mit 30 % weniger Ressourcen den gleichen Ertrag erzielen könnten. Angesichts der Intensität der Produktionsanforderungen und der Erwartungen an die Kapitalrendite (ROI) in der Landwirtschaft besteht ein dringender Bedarf an den richtigen KI-Lösungen. Tatsächlich haben die bestehenden Lösungen bereits ihr Maximum erreicht, was ihre Leistungsfähigkeit angeht – sei es in Bezug auf mehr Düngemittel, Arbeitskräfte oder genetisch veränderte Organismen (GVO).

Was wir brauchen, ist ein GPT-Moment für die Landwirtschaft: ein multimodales KI-System, das in verschiedenen Konfigurationen eingesetzt werden kann, das Lernen zwischen verschiedenen Kulturen überträgt und in Echtzeit alle möglichen Parameter steuert – oder Menschen und Maschinen dabei hilft, diese zu steuern –, um den dynamischen Ertrag zu optimieren.

 

Sie sagen oft, dass Ihre Plattform es Landwirten ermöglicht, „ihre Pflanzen vor ihren Augen wachsen zu sehen”. Was kommt als Nächstes – gibt es neue Funktionen, Pflanzen oder sogar Märkte, die Sie in naher Zukunft anvisieren?

Basierend auf unseren Marktkenntnissen bieten wir die genauesten Ertragsprognosen für wichtige Gewächshauskulturen und übertreffen dabei regelmäßig menschliche Experten. Und das verbessert sich mit unserer Expansion immer weiter. Aber unsere Kunden wünschen sich etwas Größeres: ein intelligentes „Betriebssystem“. Unser Ziel ist es, das echte Betriebssystem für die kommerzielle Lebensmittelproduktion zu sein. Wir haben bereits mehrere zusätzliche Module, die entweder in der Beta-Phase sind oder bald auf den Markt kommen – wie Scouting, automatisierte CV-basierte Verfolgung von Key Performance Indicators (KPI) für Pflanzen sowie Vorhersagen zu Krankheiten und Schädlingen.

 

Vielen Dank für das Gespräch.