Sebastian Luxem, Chief Technology Officer bei Experience One, spricht im Interview über die Voraussetzungen für den Aufbau einer skalierbaren und nachhaltigen Agenten-Architektur, warum Entscheidungen zum Autonomiegrad von KI-Systemen eine Führungsfrage sind und wie Unternehmen KI-Agenten entwickeln, die mit Unsicherheiten umgehen können und gleichzeitig zuverlässig agieren.
Herr Luxem, welche strategischen Fragen sollten sich Unternehmen stellen, bevor sie in Agentic AI investieren? Wir sehen aktuell oft, dass über Agenten gesprochen wird, ohne zu wissen, was damit gemeint ist – oder wo diese Systeme im eigenen Unternehmen überhaupt sinnvoll eingesetzt werden können. Bevor man in Agentic AI investiert, muss man sich mit den Möglichkeiten, aber auch den Limitierungen auseinandersetzen. Wir sprechen hier nicht über ein weiteres Tool in Form eines smarten Chatbots. Es geht um Systeme, die eigenständig Ziele verfolgen, Entscheidungen treffen und mit anderen Agenten, Menschen und Tools interagieren. Würden Sie heute einem neuen Mitarbeitenden Aufgaben übergeben, ohne zu wissen, was genau zu tun ist, welche Tools er benötigt – und ohne Kontrolle? Wahrscheinlich nicht. Bei Agentic AI gilt dasselbe Prinzip. Zuständigkeiten, Anforderungen und Schnittstellen müssen von Anfang an klar definiert sein. KI-Agenten brauchen strukturierte Daten, saubere APIs und eine klare Erwartungshaltung. Nur wer diese Basis legt, wird den Sprung von der Idee in die Umsetzung schaffen. Aber selbst dann bleibt die entscheidende Frage: Wie viel Autonomie darf so ein System überhaupt haben? Das ist keine technische, sondern eine Führungsfrage. Genau wie bei realen Mitarbeitenden muss auch hier klar geregelt sein, wer was entscheidet, in welchem Rahmen und mit welcher Verantwortung.
Was ist aus Ihrer Sicht der wichtigste erste Schritt, wenn Unternehmen Agentic AI praktisch umsetzen wollen? Der wichtigste Schritt ist, sich vom Bedarf treiben zu lassen, nicht von der Technologie: Purpose First statt Technology First. Wer Agentic AI einsetzen will, muss zuerst den richtigen Anwendungsfall finden. Am besten dort, wo Aufgaben regelmäßig wiederkehren, klar strukturiert sind und heute noch unnötig viele Ressourcen binden. Diese Use Cases findet man selten am Reißbrett. Unternehmen müssen raus aus der Theorie und rein in die Praxis. Für Agentic AI gibt es noch kaum etablierte Architekturen oder Standards. Was heute noch nicht produktiv einsetzbar ist, kann in wenigen Monaten zum strategischen Hebel werden – wenn man rechtzeitig anfängt und gezielt lernt. Deshalb ist Exploration so wichtig. Aber: nicht blind, sondern immer mit Kompass. Der entscheidende Punkt liegt darin, nicht alles auf einmal umsetzen zu wollen. Besser ist es, klein zu starten, Erfahrungen zu sammeln und dann zu skalieren. Wer das versteht, hat nicht nur technologisch, sondern auch organisatorisch gesehen einen Vorteil.
Was sind aktuell die größten technologischen Herausforderungen bei der Umsetzung von Agenten oder auch Multi-Agenten-Systemen? Die größte Herausforderung ist nicht, Agenten zu bauen – sondern sie skalierbar, kontrollierbar und testbar zu machen. Ein einzelner KI-Agent als Prototyp ist schnell umgesetzt. Aber sobald mehrere Agenten in einem produktionsreifen System miteinander agieren, braucht es Architekturen, die Kommunikation, Zustände und Aufgaben intelligent koordinieren. Skalierung wird zur Frage der Stabilität: Wie orchestrieren wir komplexe Abläufe, ohne dass sich Agenten gegenseitig blockieren, redundante Aufgaben erledigen oder sich in Endlosschleifen verfangen?
Messbarkeit ist der nächste Knackpunkt. Es gibt keine Standard-Metrik, kein allgemeingültiges Bewertungsschema; diese hängen stark vom konkreten Use Case ab.Und trotzdem müssen wir herausfinden, welche Agenten verlässliche Resultate liefern, und Abweichungen erkennen. Wenn Antworten nicht länger deterministisch sind, braucht es neue Teststrategien, um Erfolg zu bewerten. Teilweise kommt dabei KI zum Einsatz, um die Leistung anderer KI-Systeme zu beurteilen. Und: Statt nur auf den finalen Output zu schauen, müssen wir Systeme modular betrachten und jeden Teilaspekt getrennt evaluieren – etwa die Sprachfähigkeit, RAG-Präzision, Faktenkonsistenz oder die Qualität in der Absichtserkennung.
Diese Entkopplung ist zentral. Wir dürfen keine Monolithen aus Prompts und Werkzeugketten bauen, die sich weder testen noch warten lassen. Wenn aus vielen kleinen Black-Boxen eine große entsteht, verlieren wir die Kontrolle. Und genau da zeigt sich die eigentliche Herausforderung: Wir müssen produktionsreife Systeme auf einem Fundament bauen, das sich permanent verändert. Auch wenn es noch kaum etablierte Standards für Multi-Agenten-Systeme gibt, müssen Unternehmen die Architektur trotzdem sauber aufsetzen – mit klaren Trennungen, robusten Schnittstellen und nachvollziehbarer Logik. Wer hier die Engineering-Disziplin vernachlässigt, wird keine skalierbaren Lösungen entwickeln – sondern fragile Konstruktionen, die schnell an ihre Grenzen stoßen. Das ganze Interview mit Sebastian Luxem gibt’s in unserem Whitepaper „Road to Agentic AI. Faszination Automatisierung“.