Der OODA Loop — Observe, Orient, Decide, Act — wurde von US-Kampfpilot und Militärstratege John Boyd entwickelt, um schnelle Entscheidungsprozesse unter Unsicherheit zu beschreiben. Was Boyd für Luftkämpfe entworfen hat, ist heute eines der nützlichsten Frameworks für KI-Governance — und das Herz von velaLoop.
John Boyds Erbe: Schnelligkeit durch Struktur
Boyd beobachtete in den 1950er Jahren ein Phänomen: US-Piloten im Korea-Krieg gewannen Luftkämpfe nicht weil ihre Jets schneller waren — die sowjetischen MiG-15 waren technisch mindestens ebenbürtig. Sie gewannen, weil sie schneller entschieden.
Boyd entwickelte daraus den OODA Loop als kognitives Modell:
- Observe (Beobachten): Alle verfügbaren Informationen aus der Umgebung erfassen — Sensordaten, Nachrichten, Signale
- Orient (Ausrichten): Das Beobachtete einordnen — durch Erfahrung, mentale Modelle, kulturellen Hintergrund und analytische Verarbeitung
- Decide (Entscheiden): Aus den orientierten Informationen eine Handlungsoption wählen
- Act (Handeln): Die Entscheidung umsetzen — und sofort wieder in den Beobachtungsmodus wechseln
Der entscheidende Punkt: Wer seinen OODA Loop schneller durchläuft als der Gegner, gewinnt. Das gilt für Luftkämpfe ebenso wie für Wettbewerbsdynamik und KI-Governance.
Vom Cockpit zur KI-Governance
In der KI-Governance bedeutet ein "schneller OODA Loop" nicht, dass KI ohne menschliche Beteiligung entscheidet. Es bedeutet, dass Mensch und Maschine ihre jeweiligen Stärken optimal einsetzen:
- KI ist stark bei Observe und Orient: Massendatenverarbeitung, Mustererkennung, konsistente Analyse über tausende Datenpunkte
- Menschen sind stark bei Decide und Act: Ethische Abwägung, Kontextsensitivität, Verantwortungsübernahme
Das ideale KI-Governance-System lässt die KI die ersten beiden Phasen übernehmen — und stellt sicher, dass ein Mensch bei kritischen Entscheidungen im Loop bleibt.
Drei Autonomie-Stufen in der Praxis
In der KI-Governance unterscheiden wir drei Stufen, die jeweils unterschiedliche Governance-Anforderungen mit sich bringen:
-
Human-in-the-Loop (HitL): KI empfiehlt, Mensch entscheidet und handelt.
Beispiel: Ein KI-System analysiert Kreditanträge und schlägt eine Bewertung vor. Ein Sachbearbeiter genehmigt oder lehnt ab.
Governance-Aufwand: Niedrig — die KI-Ausgabe ist ein Hinweis, keine Entscheidung. -
Human-on-the-Loop (HotL): KI handelt, Mensch überwacht und kann eingreifen.
Beispiel: Ein Trading-Algorithmus führt automatisch Trades aus. Ein Trader überwacht Limits und kann stoppen.
Governance-Aufwand: Mittel — Eingriffsmechanismen, Monitoring und klare Stoppregeln sind Pflicht. -
Human-out-of-the-Loop (HootL): KI entscheidet und handelt vollständig autonom.
Beispiel: Ein autonomes Fahrzeug trifft Bruchteile-Sekunden-Entscheidungen ohne menschliche Freigabe.
Governance-Aufwand: Sehr hoch — nur in eng definierten, technisch abgesicherten Kontexten vertretbar.
Was der EU AI Act zur menschlichen Aufsicht sagt
Artikel 14 des EU AI Acts regelt die menschliche Aufsicht über Hochrisiko-KI explizit. Anforderungen:
- Hochrisiko-Systeme müssen so konzipiert sein, dass sie von natürlichen Personen wirksam überwacht werden können
- Betreiber müssen in der Lage sein, das System jederzeit zu unterbrechen oder zu deaktivieren ("kill switch")
- Die Aufsichtspersonen müssen die Fähigkeiten und Grenzen des Systems verstehen — nicht nur bedienen können
- Automatische Outputs dürfen nicht "blind" übernommen werden — eine kritische Prüfung durch Menschen ist Pflicht
Vollautonome Systeme sind damit für die meisten geschäftlichen Kontexte keine Option — zumindest nicht ohne erheblichen zusätzlichen Konformitätsaufwand.
Warum Vertrauen der eigentliche Maßstab ist
Es gibt einen weiteren, oft übersehenen Grund, warum der Mensch im Loop bleiben sollte: Vertrauen.
Vertrauen in KI-Systeme entsteht nicht durch Behauptungen ("Unser Modell ist 97% genau"), sondern durch Erfahrung und Nachvollziehbarkeit. Ein System, das erklärt, warum es eine Empfehlung ausspricht, und das einen Menschen einbezieht, baut Vertrauen auf — bei Mitarbeitern, bei Kunden, bei Regulatoren.
Ein System, das schnell, aber unerklärlich agiert, erzeugt das Gegenteil: Misstrauen und Widerstand. In der Praxis führt das dazu, dass Mitarbeiter Workarounds entwickeln, um das System zu umgehen — genau das, was Governance verhindern soll.
Der OODA Loop in velaLoop
velaLoop implementiert den OODA Loop als Prozess-Framework für KI-Governance:
- Observe: velaLoop aggregiert Daten aus KI-Systemen — Outputs, Konfidenzwerte, Anomalien, Nutzungsmuster
- Orient: Das System ordnet diese Daten ein — gegen definierte Policies, Risikoschwellen und historische Muster
- Decide: Wo menschliche Entscheidung gefragt ist, generiert velaLoop Entscheidungsvorlagen mit relevanten Informationen
- Act: Nach der Entscheidung protokolliert velaLoop den Vorgang und passt das Monitoring an
Für jeden KI-Use-Case legen Sie fest, in welcher Phase ein Mensch intervenieren muss — und welche Eskalationspfade gelten, wenn die KI unsicher ist.
Fazit
Der OODA Loop ist nicht nur ein militärisches Konzept — er ist eine präzise Beschreibung davon, wie gute Entscheidungen entstehen. In der KI-Governance hilft er dabei, den richtigen Platz für menschliche Kontrolle zu finden: nicht überall und bei jeder Kleinigkeit, aber an den kritischen Punkten, wo Kontext, Ethik und Verantwortung zählen.
KI-Systeme, die schnell und trotzdem kontrollierbar sind, sind kein Widerspruch. Sie sind das Ziel.