← Alle Beitrage

Agenten brauchen Kontrolloberflächen

OpenAI beschreibt die Codex-App inzwischen als Kommandozentrale, mit der sich mehrere Agenten verwalten, Arbeiten parallel ausführen und koordinierte Teams über den gesamten Softwarelebenszyklus hinweg beaufsichtigen lassen.1 Diese Produktrichtung bestätigt den Wandel der Oberfläche: Das schwierige Problem lautet nicht mehr „Kann der Agent handeln?“, sondern „Kann der Mensch Handlungen in großem Maßstab beaufsichtigen?“

Agenten brauchen Kontrolloberflächen: Orte, an denen eine Person den Zustand sehen, Risiken prüfen, sensible Tools freigeben, Ablaufspuren untersuchen, Fehler beheben und das Ergebnis mit Nachweisen abzeichnen kann. Besserer Chat hilft beim Formulieren. Kontrolloberflächen steuern die Arbeit.

Kurzfassung

Chat bleibt nützlich, um Absichten zu formulieren. Als einzige Oberfläche für autonome Arbeit scheitert er jedoch, weil Agentenausführungen Tool-Aufrufe, Berechtigungen, Ablaufspuren, Speicher, gescheiterte Abzweigungen und Abschlussbehauptungen enthalten. Die Codex-Cloud-Dokumentation von OpenAI beschreibt Hintergrundaufgaben in Sandbox-Umgebungen, Echtzeitüberwachung des Fortschritts, Zitate aus Terminal-Logs und Nachweise aus Testausgaben.2 Das OpenAI Agents SDK stellt Human-in-the-loop-Freigaben und integriertes Tracing für Tool-Aufrufe, Übergaben, Schutzmechanismen und benutzerdefinierte Ereignisse bereit.34 Die Claude Code-Hooks von Anthropic machen Lebenszykluspunkte wie PreToolUse, PostToolUse, PermissionRequest und Stop sichtbar.5

Die Produktlehre: Aufsicht ist kein einzelner modaler Dialog am Ende. Sie besteht aus mehreren Oberflächen, die neben dem Agenten liegen, während die Arbeit läuft.

Wichtigste Erkenntnisse

Für Produktteams, die Agenten bauen: - Bauen Sie eine Kontrollwarteschlange, bevor Sie die nächste Chat-Politur hinzufügen. Die Warteschlange sollte blockierte Ausführungen, riskante Aktionen, veraltete Nachweise, fehlgeschlagene Prüfungen und prüfbereite Artefakte zeigen. - Behandeln Sie Freigaben, Ablaufspuren und Wiederherstellung als zentrale UX. Benutzer sollten den Tool-Zustand nicht aus einem Transkript rekonstruieren müssen.

Für Design Engineers: - Geben Sie jeder Agentenaktion eine Aufmerksamkeitsstufe: still, zusammengefasst, unterbrechend oder blockiert. Reine Lesevorgänge sollten nicht wie Produktionsänderungen aussehen. - Entwerfen Sie das Prüfobjekt, nicht nur die Nachricht. Ein Prüfobjekt enthält den Tool-Payload, den Risikogrund, den Diff, die Nachweise und die nächste Aktion.

Für Teams, die Coding-Agents einführen: - Messen Sie, ob ein Operator beantworten kann: Was läuft, was wartet, was wurde geändert, was ist fehlgeschlagen, was braucht Freigabe und was bleibt ungeprüft? - Nutzen Sie Chat für Delegation. Nutzen Sie Kontrolloberflächen für Verantwortung.

Was ist eine Kontrolloberfläche?

Eine Kontrolloberfläche ist eine Benutzeroberfläche für verantwortbare Agentenarbeit.

Sie versucht nicht, jedes Token zu zeigen. Sie zeigt die Teile, die darüber entscheiden, ob der Agent weitermachen sollte:

Oberfläche Benutzerfrage
Ausführungswarteschlange Welche Agenten brauchen Aufmerksamkeit?
Zustandsbereich In welcher Phase befindet sich jede Ausführung?
Freigabewarteschlange Welche Tool-Aufrufe brauchen eine menschliche Entscheidung?
Ablaufspur-Zeitleiste Was ist in welcher Reihenfolge passiert?
Nachweisbereich Was belegt das Ergebnis?
Wiederherstellungssteuerung Wie pausiere ich, setze fort, wiederhole, verzweige oder rolle zurück?
Prüfpaket Was kann ich abzeichnen, ablehnen oder zurückgeben?

Der Unterschied zum Chat ist der wahlfreie Zugriff. Chat sagt: „Lesen Sie den Verlauf.“ Eine Kontrolloberfläche sagt: „Prüfen Sie den riskanten Teil, und entscheiden Sie dann.“

Das zählt, sobald eine Person mehrere Agenten steuert. Ein einzelner Agent kann eine Zeit lang dialogorientiert bleiben. Fünf lang laufende Agenten werden zu Betriebsabläufen. Die Oberfläche muss Aufmerksamkeit priorisieren, zusammenfassen und weiterleiten.

Warum scheitert Chat als Betriebsoberfläche?

Chat scheitert, weil er für Arbeit in Bewegung die falsche Form hat.

Agentenarbeit erzeugt Ereignisse: Pläne, Suchen, Dateilesevorgänge, Dateischreibvorgänge, Shell-Befehle, Browseraktionen, API-Aufrufe, Testläufe, verworfene Wege, fehlgeschlagene Wiederholungen und abschließende Nachweise. Ein Transkript kann diese Ereignisse enthalten, aber es kann sie nicht nach Risiko, Phase oder Verantwortung ordnen.

Die Ankündigung der Codex-App von OpenAI benennt diesen Wandel direkt. Entwickler delegieren Arbeit, führen Aufgaben parallel aus und beaufsichtigen Agenten über Projekte hinweg; ältere IDE- und Terminaloberflächen passen nicht zu diesem Modus.1 Diese Formulierung ist wichtig, weil Aufsicht ein anderes Layout braucht als Prompting. Der Operator braucht ein Board, keinen Scrollverlauf.

Die Human-AI-Interaction-Richtlinien von Microsoft aus dem Jahr 2019 liefern weiterhin den Grundrahmen für das Design: KI-Systeme sollten Status kommunizieren, Korrekturen unterstützen und Fehler über die Interaktionszeit hinweg handhaben.6 Agenten machen diese alten Richtlinien operativ. Status heißt jetzt: „Welcher Tool-Aufruf wartet?“ Korrektur heißt jetzt: „Diese Ausführung ablehnen und fortsetzen.“ Fehler heißt jetzt: „Zeigen Sie den fehlgeschlagenen Befehl, die geänderte Annahme und den Reparaturpfad.“

Der Fehler besteht darin, Aufsicht als Reibung zu behandeln. Schlechte Aufsicht erzeugt Reibung. Gute Aufsicht senkt die kognitive Last, weil sie die Entscheidung an die richtige Stelle legt.

Was sollte die Ausführungswarteschlange zeigen?

Die Ausführungswarteschlange sollte Aufmerksamkeit zeigen, nicht Aktivität.

Ein Aktivitätsfeed erzählt dem Benutzer alles, was passiert ist. Eine Kontrollwarteschlange zeigt, was Urteilskraft verlangt. Die Warteschlange kann die meisten Ereignisse auf wenige Zustände verdichten:

Ausführungsstatus Was der Operator braucht
Planung Ziel, Umfang, wahrscheinliche Tools, Akzeptanzkriterien
Ausführung Aktuelles Tool, Ziel, erwartete Nebenwirkung
Wartend Freigabe, Zugangsdaten, fehlende Eingabe, externer Blocker
Prüfung Testbefehl, Quellenprüfung, gerenderter Pfad, Prüfschritt
Reparatur Fehlgeschlagene Prüfung, geänderte Hypothese, nächster Versuch
Prüfbereit Artefakt, Diff, Nachweise, offene Lücken
Blockiert Grund, Verantwortlicher, Neustartoption

Die Codex-Cloud-Dokumentation von OpenAI beschreibt Aufgaben, die im Hintergrund laufen können, auch parallel, jeweils in eigenen Cloud-Umgebungen.2 Parallele Hintergrundarbeit verändert das Aufmerksamkeitsmodell. Benutzer sollten nicht jeden Thread abfragen müssen. Das System sollte blockierte, riskante und prüfbereite Arbeit an einer Stelle bündeln.

Die Warteschlange sollte falsche Dringlichkeit vermeiden. Eine fehlgeschlagene Lint-Prüfung in einem Entwurfsbranch und eine Abweichung bei einem Produktionsdeployment verdienen nicht dasselbe visuelle Gewicht. Die Oberfläche sollte Unterbrechungen für irreversible Aktionen, öffentliche Releases, sicherheitssensible Vorgänge und Entscheidungen reservieren, bei denen dem Agenten genügend Kontext fehlt, um verantwortbar fortzufahren.

Wie sollten Freigaben funktionieren?

Freigaben sollten wie eine Warteschlange aus Prüfobjekten funktionieren, nicht wie eine Kette modaler Unterbrechungen.

Der Human-in-the-loop-Ablauf des OpenAI Agents SDK pausiert die Ausführung, bis eine Person sensible Tool-Aufrufe freigibt oder ablehnt. Die Dokumentation beschreibt ausstehende Freigaben als interruptions, wobei RunState genutzt wird, um nach Entscheidungen zu serialisieren und fortzusetzen.3 Dieselbe Seite weist darauf hin, dass Freigaben auch für verschachtelte Agenten-Tools und MCP-Tools gelten, nicht nur für den aktuellen Agenten auf oberster Ebene.3

Die Hook-Dokumentation von Anthropics Claude Code zeigt dieselbe Designform aus einem anderen Blickwinkel. PreToolUse läuft vor einem Tool-Aufruf und kann ihn blockieren. PermissionRequest wird ausgelöst, wenn ein Berechtigungsdialog erscheint. PostToolUse und PostToolUseFailure laufen nach erfolgreichen oder fehlgeschlagenen Tools, und Stop wird ausgelöst, wenn Claude seine Antwort beendet.5

Diese Primitive weisen auf die richtige Oberfläche:

Freigabefeld Warum es in die UI gehört
Tool-Name Identifiziert die Fähigkeitsklasse
Argumente Zeigt, was der Agent tun will
Ziel Benennt Datei, Datenbank, Host, Route, Konto oder Branch
Risikostufe Setzt visuelles und prozedurales Gewicht
Begründung des Agenten Erklärt, warum der Aufruf in den Plan gehört
Erwartete Nebenwirkung Trennt Lesen, Schreiben, Netzwerk, Deployment, Ausgaben oder Löschen
Entscheidung Einmal freigeben, immer freigeben, ablehnen, vertagen, umschreiben

Die richtige Freigabeoberfläche lässt risikoarme Lesevorgänge still passieren, bündelt Entscheidungen mittleren Risikos und unterbricht bei Hochrisikoänderungen. Benutzer sollten keinen Shell-Befehl freigeben, während sie einen Absatz lesen. Sie sollten eine typisierte Operation mit genügend Kontext freigeben, um verantwortlich zu bleiben.

Was sollte eine Ablaufspuransicht belegen?

Eine Ablaufspuransicht sollte Reihenfolge, Ursache und Folge belegen.

Die Tracing-Dokumentation des OpenAI Agents SDK sagt, dass Tracing eine Ausführung über LLM-Generierungen, Tool-Aufrufe, Übergaben, Schutzmechanismen und benutzerdefinierte Ereignisse hinweg aufzeichnet und anschließend Debugging, Visualisierung und Monitoring in Entwicklung und Produktion unterstützt.4 Damit wird die Ablaufspur zu einem Produktbaustein, nicht nur zu Entwickler-Instrumentierung.

Die Kontroll-Ablaufspur sollte fünf Fragen beantworten:

Frage Erforderliches Ablaufspurdetail
Was hat der Agent gesehen? Dateien, Quellen, Prompts, abgerufener Kontext
Was hat er getan? Tool-Aufrufe, Argumente, Ausgaben, Exit-Zustände
Was hat sich geändert? Diffs, erzeugte Artefakte, externer Zustand
Warum hat er den Kurs geändert? Fehlgeschlagene Prüfungen, verweigerte Berechtigungen, neue Nachweise
Was belegt den Abschluss? Befehle, Quellenlinks, Live-Routen, Prüfstatus

Die Ablaufspur braucht keine private Begründungskette. Sie braucht operative Nachweise. Ein Benutzer muss keine verborgene Chain-of-thought sehen, um ein Release zu bewerten. Er braucht Befehlsausgaben, Routenstatus, Cache-Zustand, D1-Zeilen, Übersetzungsprüfung, Quellenprüfungen und die verbleibende Lücke bei der muttersprachlichen Prüfung.

Diese Unterscheidung schützt Vertrauen und Anspruch zugleich. Zu viele Interna machen die Oberfläche laut. Zu wenig macht das Produkt zu Theater.

Wie passt Wiederherstellung in den Ablauf?

Wiederherstellung gehört neben das fehlgeschlagene Ereignis.

Agentensysteme scheitern im normalen Betrieb ständig: Ein Installationsbefehl läuft in einen Timeout, ein Formatter ändert fremde Dateien, ein Browser-Smoke-Test findet einen veralteten Cache, eine Übersetzungsprüfung lehnt eine Locale ab, oder ein Quellenlink liefert einem Script 403. Eine gute Kontrolloberfläche behandelt solche Momente als erwartete Zustände.

Die Wiederherstellungssteuerung sollte konkret bleiben:

Steuerung Verantwortbare Nutzung
Pausieren Neue Nebenwirkungen stoppen und Zustand erhalten
Fortsetzen Nach Freigabe oder externer Korrektur weitermachen
Wiederholen Einen fehlgeschlagenen Schritt mit geänderter Eingabe erneut ausführen
Verzweigen Einen alternativen Plan untersuchen, ohne den ersten zu überschreiben
Zurücksetzen Lokale reversible Änderungen rückgängig machen
Eskalieren Einen Menschen oder einen anderen Agenten um Prüfung bitten
Mit Lücke schließen Nur mit ausdrücklich offener Arbeit abschließen

Die Ankündigung der Codex-App von OpenAI beschreibt Agenten, die in isolierten Codekopien arbeiten, damit Benutzer verschiedene Wege erkunden und Änderungen lokal auschecken können, während ein Agent weiterläuft.1 Diese Isolation hilft bei der Wiederherstellung, aber die Oberfläche muss trotzdem zeigen, welcher Weg gewonnen hat, welcher gescheitert ist und welche Arbeit noch nicht sicher gemergt werden kann.

Das Produkt sollte Benutzer nie zwingen, Wiederherstellung aus Rohlogs zu rekonstruieren. Der fehlgeschlagene Schritt kennt bereits seinen Befehl, sein Arbeitsverzeichnis, seine Ausgabe und sein Ziel. Die Oberfläche sollte die verantwortbare nächste Aktion genau an dieses Ereignis setzen.

Was macht eine Kontrolloberfläche wertvoll?

Eine Kontrolloberfläche wird wertvoll, wenn sie Arbeit reduziert, ohne Verantwortung zu reduzieren.

Die einfache Version fügt weitere Panels hinzu. Die wertvolle Version entfernt Zweifel. Benutzer sollten schneller Antworten auf die Fragen bekommen, die zählen:

  • Welche Ausführung braucht mich?
  • Welche Aktion kann Schaden verursachen?
  • Welches Ergebnis hat Belege?
  • Welches Ergebnis hat nur Prosa?
  • Welcher Branch sollte bestehen bleiben?
  • Welche Lücke bleibt ungelöst?

Das AI Risk Management Framework des NIST beschreibt Vertrauenswürdigkeit als etwas, das Teams in Design, Entwicklung, Nutzung und Bewertung von KI-Produkten und -Systemen einarbeiten.7 Kontrolloberflächen liegen genau an dieser Schnittstelle. Sie lassen Design operatives Risiko tragen. Sie sorgen dafür, dass Nutzung Nachweise erzeugt. Sie machen Bewertung sichtbar, bevor Benutzer abzeichnen.

MCP erweitert dieselbe Verantwortung. Das Model Context Protocol verbindet KI-Anwendungen mit externen Datenquellen, Tools und Arbeitsabläufen, damit Agenten Informationen abrufen und Aufgaben ausführen können.8 Mehr angebundene Tools bedeuten eine größere Aktionsfläche. Größere Aktionsflächen brauchen bessere Aufsicht, nicht mehr Glauben.

Der Designmaßstab sollte einfach bleiben: Ein Agentenprodukt sollte nicht möglichst viel autonome Bewegung maximieren. Es sollte verantwortbaren Fortschritt maximieren.

Wie beginnen Sie mit dem Bau?

Beginnen Sie mit der kleinsten nützlichen Kontrolloberfläche:

  1. Ausführungsliste: eine Zeile pro aktivem Agenten, mit Phase, Alter, Blocker und nächster Entscheidung.
  2. Freigabewarteschlange: ein Objekt pro sensiblem Tool-Aufruf, mit Argumenten, Ziel, Risiko und Steuerelementen für Freigabe, Ablehnung und Vertagung.
  3. Ablaufspurtabelle: eine Zeile pro bedeutsamem Ereignis, filterbar nach Lesen, Schreiben, Shell, Browser, Quelle, Test, Deployment und Prüfung.
  4. Nachweisbereich: eine Tabelle, die jede Abschlussbehauptung einem Beleg zuordnet.
  5. Wiederherstellungsmenü: Pausieren, Fortsetzen, Wiederholen, Verzweigen und Mit-Lücke-Schließen direkt am fehlgeschlagenen Ereignis.

Die erste Version darf langweilig aussehen. Tabellen, Filter, Badges und aufklappbare Zeilen sind besser als ein elegantes Transkript, das Risiko versteckt. Die Geschmacksfrage kommt erst, nachdem die Informationsarchitektur ehrlich ist: Lärm reduzieren, Warnfarben sparsam einsetzen, risikoarme Ereignisse gruppieren, Hochrisiko-Payloads offenlegen und die abschließende Freigabe an Belege koppeln.

Agentisches Design ist Kontrollflächendesign. Die Agentenschnittstelle ist die Betriebsschicht. HTML kann räumliche Informationen bewahren, die Markdown verliert. Kontrolloberflächen verbinden diese Perspektiven: Sie machen autonome Arbeit zu prüfbaren, räumlichen und verantwortbaren Abläufen.

Kurze Zusammenfassung

Agenten brauchen weniger ein besseres Transkript als vielmehr Kontrolloberflächen. Eine ernsthafte Agentenschnittstelle braucht eine Ausführungswarteschlange, eine Freigabewarteschlange, eine Ablaufspur-Zeitleiste, einen Nachweisbereich und Wiederherstellungssteuerung. Die Dokumentation von OpenAI, Anthropic, Microsoft, NIST und MCP weist in dieselbe Produktrichtung: Autonome Systeme brauchen sichtbaren Status, Tool-Steuerung, prüfbare Ablaufspuren und menschliche Entscheidungen auf der richtigen Aufmerksamkeitsstufe.1345678

Chat kann die Delegationsspur bleiben. Aufsicht muss zur Arbeitsoberfläche werden.

FAQ

Was ist eine Kontrolloberfläche für Agenten?

Eine Kontrolloberfläche für Agenten ist eine UI zur Überwachung und Steuerung autonomer Agentenarbeit. Sie zeigt Ausführungszustand, ausstehende Freigaben, Tool-Ablaufspuren, Nachweise, Fehler und Wiederherstellungssteuerung. Chat sammelt Absichten. Eine Kontrolloberfläche hilft dem Operator zu entscheiden, was der Agent als Nächstes tun darf und ob das Ergebnis eine Abzeichnung verdient.

Warum reicht Chat für KI-Agenten nicht aus?

Chat ist sequenziell und wird nur fortgeschrieben. Agentenarbeit braucht wahlfreien Zugriff auf Zustand, Risiko, Freigaben, Ablaufspuren, Diffs, Testausgaben und ungelöste Lücken. Ein Transkript kann diese Ereignisse aufzeichnen, aber es kann sie nicht nach Risiko priorisieren oder menschliche Aufmerksamkeit über parallele Agenten hinweg lenken.

Was sollten Teams zuerst bauen?

Teams sollten zuerst eine Ausführungswarteschlange und eine Freigabewarteschlange bauen. Diese beiden Oberflächen machen blockierte Arbeit und sensible Aktionen sofort sichtbar. Danach sollte eine Ablaufspurtabelle folgen, weil Nachweise, Wiederherstellung und Abschlussprüfung alle vom Ereignisprotokoll abhängen.

Wie unterscheidet sich eine Kontrolloberfläche von Observability?

Observability hilft Entwicklern, das System zu debuggen. Aufsicht hilft Operatoren, Arbeit während ihrer Ausführung zu steuern. Beide nutzen Daten gemeinsam, dienen aber unterschiedlichen Benutzern. Eine Produktions-Ablaufspur kann sowohl eine Debugging-Ansicht für Entwickler als auch eine menschliche Freigabeoberfläche speisen.

Braucht jeder Agent menschliche Freigabe?

Nein. Jeder Agent braucht kalibrierte Aufsicht. Risikoarme Lesevorgänge können still laufen. Änderungen mittleren Risikos können zur Prüfung gebündelt werden. Hochrisikoaktionen sollten für eine Freigabe pausieren. Öffentliche Releases, destruktive Befehle, kundenwirksame Aktionen und Geldbewegungen verdienen stärkere Prüfschwellen.


Referenzen


  1. OpenAI, “Introducing the Codex app,” OpenAI, 2. Februar 2026, aktualisiert am 4. März 2026. Quelle für die Codex-App als Multi-Agenten-Kommandozentrale, parallele Agentenarbeitsabläufe, isolierte Codekopien, Skills, Automations, Prüfwarteschlangen, Sandboxing, Berechtigungsanfragen und Aufsichtsrahmung. 

  2. OpenAI, “Codex web,” OpenAI Developers. Quelle für Codex als Coding-Agent, der Code in Hintergrundaufgaben in der Cloud lesen, bearbeiten und ausführen kann, einschließlich paralleler Arbeit in eigener Cloud-Umgebung. 

  3. OpenAI, “Human-in-the-loop,” OpenAI Agents SDK. Quelle für Freigabeabläufe, die die Ausführung pausieren, ausstehende Freigaben als Unterbrechungen zurückgeben, RunState serialisieren und fortsetzen sowie Freigaben über Function Tools, Shell Tools, Apply-patch Tools, MCP-Server, gehostete MCP-Tools und verschachtelte Agenten-Tools hinweg unterstützen. 

  4. OpenAI, “Tracing,” OpenAI Agents SDK. Quelle für integriertes Tracing von LLM-Generierungen, Tool-Aufrufen, Übergaben, Schutzmechanismen, benutzerdefinierten Ereignissen, Traces, Spans sowie Monitoring in Entwicklung oder Produktion. 

  5. Anthropic, “Hooks reference,” Claude Code Docs. Quelle für Claude Code-Lebenszyklus-Hooks, darunter PreToolUse, PermissionRequest, PostToolUse, PostToolUseFailure, PostToolBatch, Subagent-Ereignisse und Stop

  6. Saleema Amershi et al., “Guidelines for Human-AI Interaction,” Microsoft Research, CHI 2019. Quelle für die 18 allgemein anwendbaren Human-AI-Interaction-Richtlinien und die Validierungsstudie mit 49 Praktikern. 

  7. National Institute of Standards and Technology, “AI Risk Management Framework,” NIST. Quelle für die Einbindung von Vertrauenswürdigkeitsüberlegungen in Design, Entwicklung, Nutzung und Bewertung von KI-Produkten, -Diensten und -Systemen. 

  8. Model Context Protocol, “What is the Model Context Protocol?” Quelle für MCP als Open-Source-Standard, der KI-Anwendungen mit externen Systemen verbindet, darunter lokale Dateien, Datenbanken, Tools und Arbeitsabläufe. 

Verwandte Beiträge

Die Agentenschnittstelle ist der Agentenrahmen

Schnittstellendesign für Agenten ist die Betriebsebene: Berechtigungen, Speicher, Ablaufprotokolle, Nachweise, Wiederher…

9 Min. Lesezeit

Agentisches Design ist die Gestaltung von Steuerungsoberflächen

Agentisches Design ist keine schönere Chatbox. Es ist die Steuerungsoberfläche, die autonome Software sichtbar, unterbre…

10 Min. Lesezeit

Der Ralph-Loop: Wie ich autonome KI-Agenten über Nacht betreibe

Ich habe ein autonomes Agentensystem mit Stop-Hooks, Spawn-Budgets und Dateisystem-Speicher gebaut. Hier sind die Fehlsc…

8 Min. Lesezeit