Können wir KI-Agenten einsetzen? Gegenfrage: könnt ihr Onboarding?

Können wir KI-Agenten einsetzen? Gegenfrage: könnt ihr Onboarding?
Egal ob neue Mitarbeiter oder KI-Agenten, viele Unternehmen führen Neuzugänge in ein Labyrinth. Ohne einen klar strukturierten Onboarding-Prozess und stabile Workflows, können besonders kurzfristig keine guten Ergebnisse erzielt werden.

Alle wollen gerade „KI-Agenten im Workflow". Aber wie so oft in Zeiten des KI-Hypes reden die einen darüber, warum das alles gefährlich und böse ist, und die anderen erwarten Magie. Lasst uns drüber reden, warum die Gründe für den Erfolg genau wie das Scheitern beim Einsatz von KI-Agenten am ende ganz schön bodenständig sind.

Ein paar intensive Jahre voller KI-Transformation haben mir deutlich gezeigt: Kannst du Menschen sauber in deine Abläufe onboarden? Wenn ja, dann wird das mit den Agenten auch eine entspannte Nummer.

Nicht weil KI-Systeme Mitarbeitende wären (sind sie nicht), sondern weil Menschen und Agenten oft an den selben Schwächen eines Unternehmens scheitern:
Die Arbeit ist nicht klar genug beschrieben, um sie zuverlässig auszuführen.

Das wird hier keine HR-Predigt, aber: Onboarding-Qualität ist ein brauchbarer Proxy dafür, ob eure Workflows explizit genug sind, um sie sicher zu automatisieren. Und ja: Es gibt Hinweise, dass gutes Onboarding/Training mit späterer Leistung und Implementierungserfolg zusammenhängt (mit Einschränkungen). In einer Analyse waren neue Mitarbeitende, die ihre Induction als „thorough and effective" bewerteten, 3,8× häufiger nach einem Jahr High Performer. [1] Und bei großen Systemeinführungen (ERP & Co.) taucht Training immer wieder als kritischer Erfolgsfaktor auf. [2]

Wichtig: Korrelation ist keine Kausalität, aber die Ähnlichkeiten im Erfolg mit Menschen und Agenten bezüglich guter Startvoraussetzungen sind kein Zufall, davon bin ich überzeugt.

Hier sind drei Onboarding-Basics die bei Agents sogar noch kritischere Rollen spielen als bei Menschen

1) Rollenklarheit wird zu Agenten-Scope: Zweck, Grenzen, Nicht-Ziele

Was Rollenklarheit für Menschen wirklich macht

Ein neues Teammitglied wird dann schnell gut, wenn es nicht raten muss:

  • Wofür bin ich verantwortlich?
  • Was heißt hier „fertig" oder „gut"?
  • Wofür bin ich nicht verantwortlich?
  • Wo hören meine Entscheidungsrechte auf?

Ohne diese Klarheit wird Arbeit politisch: Leute „erraten" Erwartungen, sichern sich ab, holen sich informelle Erlaubnisse. Das kostet Zeit und macht Ergebnisse zufällig.

Das gleiche Prinzip bei Agenten: Scope ist kein Prompt

Agenten „spüren" keine unausgesprochenen Grenzen. Sie tun das, was du ihnen erlaubst – und zwar gnadenlos konsequent.

Gibst du ihnen schwammige Ziele („mach Support", „verbessere Ops", „hilf bei Kundenfragen"), bekommst du typischerweise:

  • Übergriff: plausibel klingende, aber falsche Aussagen/Handlungen
  • Unterleistung: Absicherung, Schleifen, ewige Rückfragen, Stillstand bei Randfällen

Das ist kein „LLMs sind halt so". Das ist ein fehlender Vertrag. Und das zeigt sich in echten Fällen sehr deutlich:

  • Air Canada: Ein Chatbot erfand eine Erstattungsregel („bereavement fare") und versprach sie einem Kunden. Das Gericht machte die Airline haftbar. Übersetzt: Wenn du ein System als offizielles Interface hinstellst, dann trägt es echte Autorität – außer du begrenzt sie hart. [4]
  • NYC MyCity: Ein städtischer Chatbot gab teils rechtswidrige Auskünfte, obwohl Disclaimer existierten. Der Kernfehler war nicht „oops, Halluzination", sondern: kein sauber begrenzter Job, keine klaren Nicht-Ziele, keine verlässliche Quelle als Wahrheit. [5][6]

Wie „gut" aussieht

Behandle Agenten-Scope wie einen internen Vertrag:

  • Zweck: eine klare Aufgabe, kein Wunschbild
  • Inputs: welche Quellen darf er nutzen
  • Outputs: was darf er liefern, in welchem Format
  • Nicht-Ziele: was darf er nicht tun, auch wenn es „hilfreich" wirkt
  • Eskalation: wann muss er stoppen und übergeben

Je klarer die Beschreibung der Rolle desto besser. Bei Agenten kann man in diesem Zusammenhang ruhig von einer Daseinsberechtigung sprechen. "du existierst um ..."

"what is my purpose?" - "You pass the butter."

2) Soziale Einbettung: Buddy-System, aber für Agenten

Was soziale Einbettung beim Onboarding leistet

Gute Teams onboarden nicht nur mit Doku. Sie bauen Kontakt:

  • Buddy-System für „dumme Fragen"
  • regelmäßige Check-ins
  • aktive Einführung in die richtigen Leute
  • schnelles Feedback, bevor man still in die falsche Richtung driftet

So wird aus „ich hab gelesen" ein „ich kann's wirklich".

Das Pendant für Agenten: eine Person, die wirklich hinschaut – und handeln darf

Agenten brauchen kein Zugehörigkeitsgefühl. Aber sie brauchen das funktionale Äquivalent zu einem guten Buddy oder Teamlead:

eine enge Feedbackschleife + eine verantwortliche Person, die nahe an der Arbeit ist.

Und wichtig: Das sollte nicht primär „der eine ML-Engineer" sein, der sowieso schon alles hat. Du willst jemanden, der:

  • mit den Inputs/Outputs lebt (oder sie täglich nutzt),
  • schnell beurteilen kann: „Das ist falsch / riskant / off-policy",
  • befugt ist, das Ding zu stoppen (Kill-Switch, Rollback),
  • und die Verantwortung trägt, Fehler in Regeln/Wissen/Scope zu übersetzen.

Das ist der Kern der Parallelität:
Ein neuer Mensch braucht Betreuung. Ein Agent braucht eine*n Steward der selbst handlungsfähig ist.

Warum das nicht verhandelbar ist, sieht man in Domänen, wo Drift tödlich werden kann: Der NTSB-Bericht zum Uber-ATG-Unfall 2018 nennt u.a. Defizite bei Aufsicht und Mechanismen gegen Automatisierungs-Trägheit. [7] Andere Welt, gleiche Dynamik: Wenn niemand aktiv überwacht und eingreifen kann, läuft das System weiter – bis es knallt. Und wenn die Automatisierung für alle die mit angrenzenden Prozessen betraut sind wie geheimnisvolle Kunst wirkt, dann sagt auch niemand was, wenn man anfängt sich zu wundern "die da oben wissen schon was sie machen" Diese Art von Gleichmut darf sich gegenüber KI-Systemen nicht in Teams einschleichen.

Besser so

Ein eingebetteter Agent hat:

  • einen klar benannten Steward (gegen die Verantwortungsdiffusion)
  • einen schnellen Feedbackkanal (Überwachungs-Dashboard und Austausch im Team)
  • einen echten Kill-Switch
  • eine Review-Kadenz (am Anfang eng, später lockerer)

Wenn das fehlt, hast du keinen Agenten im Workflow. Du hast einen Prototypen in Produktion.


3) Ressourcen werden zur Single Source of Truth: für Mensch und Maschine gleichermaßen

Wissensqualität wird Ausführungsqualität.

Menschen kompensieren schlechte Doku, weil sie Kolleg:innen fragen und „mitdenken" (wobei das in Wahrheit auch mehr schlecht als recht funktioniert). Agenten kompensieren nicht. Sie nehmen, was da ist.

Was die Evidenz zu Doku-Qualität sagt

Fragmentierte Prozessinfos führen nachweislich zu Wartungsproblemen und schlechterer Ausführung – u.a. in Studien zu zersplitterter Prozessdokumentation. [9]

Und „Doku-Probleme" sind nicht nur nervig, sie können gefährlich sein: In der Medizin werden Medikationsfehler mit sehr hohen Schadenszahlen in Verbindung gebracht (u.a. die oft zitierte Größenordnung von ~1,3 Mio. Verletzungen pro Jahr in den USA). [10][11] : Wenn der Informationsuntergrund kaputt ist, wird Ausführung zum Glücksspiel.

Besser so

  • eine kanonische Quelle pro Workflow-Bereich
  • Konfliktregeln („wenn A vs B, dann gilt B")
  • SOPs, die man ausführen kann (Inputs, Tools, Definitionen, Edge Cases)
  • Deprecation ist real (alt markieren oder löschen)
  • Ownership (Maintainer, nicht nur Autor:innen, alles was Bestand haben soll braucht auch einen Verantwortlichen)

Das ist langweilig. Genau deshalb funktioniert es.

Das Schöne daran: sobald Agenten den Überblick über die Dokumentation von Prozessen im Unternehmen haben, können sie auch gleich beginnen bei der Pflege dieses Wissenspools zu helfen, außerdem versorgen sie Menschen sehr schnell und zuverlässig mit Informationen, quer über Dokumente hinweg. Immer vorausgesetzt, dass das Fundament eben gut strukturiert gelegt ist. Es geht hier nicht um eine Parallelstruktur, sondern Dokumentation die mit und für Mensch und Maschine gleichermaßen gepflegt wird.


Agenten bringen Chaos in Umgebungen die es erlauben, genau wie überforderte Praktikanten

Kannst du KI-Agenten implementieren?

Ja – wenn du die unglamouröse Arbeit machst, die gutes Onboarding sowieso erfordert:

  • klare Scopes und Rollen,
  • Einbettung über handlungsfähige Stewards,
  • eine saubere, ausführbare Wissensbasis.

Wenn dein Onboarding stark ist, hast du die Grundlagen schon bewiesen. Wenn es schwach ist, werden Agenten dir nicht auf magische Art Produktivität bringen, Sie werden deine Unklarheit automatisieren; mit hübscherer Formatierung.

Doch selbst wenn das Onboarding stimmt, bleibt eine zweite Hürde: Der Agent Gap. Die Lücke zwischen dem, was Agenten heute leisten könnten, und dem, was Unternehmen tatsächlich damit machen.


Literatur

[1] Culture Amp / InVision: Zusammenhang zwischen Onboarding-Feedback („thorough and effective") und 1-Jahres-Performance.
[2] Chatzoglou et al. (2016): Critical success factors for ERP implementation in SMEs.
[3] Bunch (2007): Training Failure as a Consequence of Organizational Culture.
[4] Moffatt v. Air Canada, 2024 BCCRT 149.
[5] The Markup (2024): NYC-Chatbot und falsche/teils rechtswidrige Auskünfte.
[6] Associated Press (2024): MyCity-Chatbot trotz Falschaussagen live.
[7] NTSB (2019): Bericht zum Uber-ATG-Unfall (Aufsicht / Automatisierungs-Trägheit).
[8] Royal Commission into the Robodebt Scheme (2023).
[9] van der Aa et al. (2017): Causes and consequences of fragmented process information.
[10] WHO (2017): Global initiative on medication errors.
[11] Joint Commission Journal: Medication errors und Patientenschäden.
[12] Dragos (2023): OT Incident Response & „Collection Management" (warum Struktur/Retrieval zählt).