Bevor man mit jemandem spricht, der Agentensysteme aufbaut, lohnt es sich zu wissen, was Implementierung tatsächlich bedeutet. Nicht die Verkaufsversion — sondern die reale Abfolge von Arbeit, die aus einer leistungsfähigen KI etwas macht, das zuverlässig im eigenen Unternehmen läuft.
Der Großteil dieser Arbeit ist kein technisches Setup. Es ist eine Reihe von Entscheidungen darüber, wie sich der Agent verhalten soll, was er eigenständig tun darf und was passiert, wenn die Dinge nicht wie erwartet verlaufen. Diese Abfolge zu kennen ist der Unterschied zwischen einer realistischen Erwartung und einer sechsmonatigen Verzögerung.
Was die meisten Unternehmen erwarten
Die meisten Unternehmen erwarten, dass Implementierung vor allem Setup bedeutet. Man richtet den Agenten auf einen Workflow aus, verbindet einige Tools, konfiguriert ein paar Einstellungen und schaut zu, wie er läuft. Die KI übernimmt den Rest.
Diese Erwartung ist verständlich — sie entspricht dem, was die meisten Demos suggerieren. Sie ist auch der Grund, warum die meisten KI-Agenten-Projekte ins Stocken geraten. Das Team bringt den Prototyp zum Laufen, stellt fest, dass er unter realen Bedingungen nicht funktioniert, und verbringt dann Monate damit, die Lücke mit Workarounds zu schließen statt mit einer ordentlichen Implementierung.
Den Workflow eingrenzen
Die erste Phase der Implementierung ist das Scoping. Hier fließt auch der Großteil der Zeit hinein — nicht weil es technisch komplex ist, sondern weil es Entscheidungen erfordert, die nur das Unternehmen selbst treffen kann.
Welcher Workflow? Diese Frage klingt einfach. Sie ist es nicht. Ein Workflow wie „Kunden-Follow-up übernehmen" enthält Dutzende von Teilentscheidungen: welche Kunden, nach wie langer Zeit, in welchem Ton, unter welchen Umständen und was passiert, wenn die Situation außerhalb des erwarteten Musters liegt.
Bevor irgendeine technische Arbeit beginnt, brauchen diese Fragen Antworten. Die Antworten definieren, was der Agent zu tun gebaut wird — und ebenso wichtig: was nicht. Wer das Scoping falsch macht, baut später neu. Wer es richtig macht, macht die Build-Phase größtenteils zur Ausführung.
Systeme anbinden und Kontrollmechanismen definieren
Sobald der Workflow eingegrenzt ist, beginnt die technische Arbeit. Der Agent braucht Zugang zu den Systemen, auf denen er operiert — dem Posteingang, dem CRM, dem Projekttracker, was auch immer der Workflow berührt.
Integration bedeutet nicht, auf ein Tool zu zeigen. Es geht darum, Datenzugriff zu konfigurieren, festzulegen, was der Agent lesen und schreiben darf, Authentifizierung zu regeln und Daten zwischen Systemen zu mappen, die kein gemeinsames Format teilen. Jede Verbindung bringt eigene Edge-Cases mit.
Parallel zur Integration wird die Kontrollschicht gestaltet. Welche Aktionen laufen automatisch? Welche werden zur menschlichen Prüfung in die Warteschlange gestellt? Was passiert bei Edge-Cases — Eingaben, die außerhalb des erwarteten Musters liegen? Das sind keine technischen Fragen. Es sind operative Entscheidungen, die sorgfältig durchdacht werden müssen: Wo vertraut das Unternehmen dem Agenten — und wo noch nicht.
Das technische Setup ist der schnelle Teil. Zu entscheiden, was der Agent tun soll, wenn etwas nicht wie erwartet verläuft, nimmt den Großteil der Zeit in Anspruch.
Tests unter Echtbedingungen
Die meisten Prototypen werden gegen Beispieldaten getestet — einen kuratierten Satz von Eingaben, der zeigen soll, wie der Workflow funktioniert. Dieser Test besteht, weil die Eingaben dafür ausgelegt sind zu bestehen.
Tests unter Echtbedingungen sind anders. Der Agent läuft gegen tatsächliche Daten, die durch das Unternehmen fließen — echte Kontakte, echte Datensätze, echte Edge-Cases. Manche Eingaben werden nicht dem entsprechen, was das Scoping antizipiert hat. Manche werden Lücken in der Kontrollschicht aufdecken. Manche werden Integrationsprobleme offenbaren, die nur mit Live-Daten auftreten.
Eine Implementierung ist abgeschlossen, wenn der Agent unter Echtbedingungen zuverlässig läuft — nicht wenn er einen Test besteht. Das sind unterschiedliche Meilensteine, und bei den meisten Implementierungen liegen sie Wochen auseinander.
In dieser Phase findet der Großteil der Iteration statt. Hier verdient die Implementierung auch ihren Wert — denn ein System, das echte Tests durchlaufen hat, ist eines, dem man vertrauen kann, mit dem umzugehen, was das Unternehmen ihm tatsächlich zumutet.
Wartung nach dem Launch
Ein Agentensystem ist kein Deployment, das man abschließt und dann hinter sich lässt. Das Unternehmen verändert sich. Workflows entwickeln sich weiter. Neue Edge-Cases tauchen auf. Das Verhalten des Agenten muss angepasst werden, wenn sich die Bedingungen, unter denen er operiert, verschieben.
Laufende Wartung bedeutet, zu beobachten, was der Agent tut, Fälle zu erkennen, die er schlecht behandelt, und sein Verhalten im Laufe der Zeit anzupassen. Es bedeutet, neue Workflows einzuführen, wenn das Team mehr Vertrauen in das System gewonnen hat. Es bedeutet, dass jemand dafür verantwortlich ist, das System zuverlässig zu halten — nicht nur zum Launch-Zeitpunkt, sondern sechs Monate und ein Jahr später.
Die Unternehmen, die am meisten von Agentensystemen profitieren, sind die, die den Launch als Beginn des Betriebs behandeln — nicht als Ende der Implementierung.