← Alle Beitrage

Von Vogelschwärmen zu Agenten: Schwarmregeln für KI-Systeme

Im Jahr 1986 stellte Craig Reynolds eine Frage, die trivial klingt: Wie schwärmen Vögel? Keine philosophische Frage. Eine technische. Er wollte überzeugende Schwärme in Computergrafiken darstellen, ohne den Weg jedes Vogels zu skripten.

Seine Antwort verwendete drei Regeln. Trennung: Achten Sie darauf, dass die Nachbarn nicht zusammengedrängt werden. Ausrichtung: Orientieren Sie sich an der durchschnittlichen Richtung der Nachbarn. Zusammenhalt: Orientieren Sie sich an der durchschnittlichen Position der Nachbarn. Kein Anführer, kein Flugplan, kein zentraler Controller. Nur drei Regeln gelten lokal für jeden Vogel und erzeugen eine globale Koordination, die nicht von echtem Schwarm zu unterscheiden ist.1

Vierzig Jahre später leite ich ein multi-agent AI system mit zehn spezialisierten Agenten, die Entscheidungen recherchieren, debattieren und abstimmen. In der Nacht, in der 23 dieser Agenten einen vollkommenen Konsens über die falsche Frage erzielten, wurde mir klar, dass ich die gleiche Dynamik beobachtete, die Reynolds beschrieben hatte: entstehende Koordination aufgrund einfacher Regeln und entstehendes Scheitern aufgrund desselben Mechanismus.

TL;DR

Reynolds’ Vogelschwarm-Simulationsalgorithmus (Boids) zeigt, dass drei einfache lokale Regeln ohne zentrale Kontrolle ein kohärentes globales Verhalten erzeugen. Agenten, die lokale Anweisungen befolgen (diesen Code auswerten, die Sicherheitsoberfläche überprüfen, diese Architektur überprüfen), erzeugen eine entstehende Koordination, wenn die Regeln gut gewählt sind, und ein entstehendes Chaos, wenn dies nicht der Fall ist. Das Hinzufügen weiterer Regeln zur Behebung von Grenzfällen macht Agenten schlechter, nicht besser. Mein 23-agent runaway incident hat dies bewiesen: Ein Spawn-Budget, das die Breite und nicht nur die Tiefe einschränkt, ist das Agentenäquivalent der Reynolds-Trennungsregel.


Drei Regeln, unendliche Scharen

Schalten Sie die Regeln oben um, um zu sehen, was passiert. Wenn alle drei aktiv sind, scharen sich die Boiden auf natürliche Weise zusammen. Entfernen Sie die Trennung und sie fallen zu einer einzigen Masse zusammen. Entfernen Sie die Ausrichtung, und sie zerstreuen sich in zufällige Bewegungen. Entfernen Sie den Zusammenhalt und sie driften auseinander, während der lokale Kurs beibehalten wird. Jede Regel ist notwendig. Keiner allein reicht aus.

Reynolds präsentierte dies auf der SIGGRAPH 1987 als „Flocks, Herds, and Schools: A Distributed Behavioral Model“. 1 Der Aufsatz veränderte die Computergrafik. Vor Boids waren für animierte Herden handgeschriebene Pfade erforderlich. Nach den Boiden entstanden aus den Regeln Herden. Über ein Jahrzehnt später, 1998, erhielt Reynolds für diese Arbeit den Scientific and Engineering Award der Academy of Motion Picture Arts and Sciences.2

Der tiefere Beitrag waren nicht die spezifischen Regeln. Es war der Beweis dafür, dass globale Koordination kein globales Wissen erfordert. Jeder Körper kennt nur seine unmittelbaren Nachbarn. Kein Boid hat eine Karte der Herde. Kein Mensch kennt das Ziel der Herde. Die Herde hat kein Ziel. Was wie eine koordinierte Bewegung aussieht, sind lokale Entscheidungen, die ein globales Muster erzeugen.


Von Pixeln zu Prozessen

Die Zuordnung von Vogelschwärmen (Boids) zu KI-Agenten ist nicht metaphorisch. In einem NeurIPS 2025-Workshop-Papier mit dem Titel „Revisiting Boids for Emergent Intelligence via Multi-Agent Collaboration“ werden die Prinzipien der Vogelbeschwörung (Boids) explizit auf Multi-Agenten-Systeme angewendet. 3 Das Papier verwendet Reynolds-Regeln als Anleitung in natürlicher Sprache für Agenten in einer kollaborativen Tool-Building-Umgebung: Ausrichtung und Trennung ergeben sich aus den Tool-Metadaten der Nachbarn, während Kohäsion die globale Zusammenfassung der vorherigen Runde einfügt.

Meine Zuordnung ist einfacher und stammt aus dem Aufbau des Systems vor dem Lesen des Artikels:

Boids-Regel Agentenäquivalent Was es verhindert
Trennung Spawn-Budget: Aktive Agenten pro Eltern begrenzen Agentenhaufen bei demselben Unterproblem
Ausrichtung Gemeinsame Bewertungskriterien: Alle Agenten verwenden den gleichen Evidenzstandard Agenten, die auf inkompatible Qualitätsdefinitionen hinarbeiten
Zusammenhalt Konsensprotokoll: Agenten konvergieren in Bezug auf Gruppenergebnisse Agenten driften in nicht zusammenhängende Tangenten ab

Die Parallele ist nicht perfekt. Die Boids-Regeln sind kontinuierlich (steuern in Richtung des durchschnittlichen Kurses). Die Agentenregeln sind diskret (spawnen höchstens 12 Kinder). Boide operieren in räumlichen Koordinaten. Agenten agieren im Problemraum. Aber die strukturelle Erkenntnis gilt: Lokale Regeln, die von jedem Agenten unabhängig angewendet werden, erzeugen kohärentes Gruppenverhalten. Und die Fehlermodi sind die gleichen.


Die Agenten von Night 23 waren sich in der falschen Frage einig

Februar 2026. Ich habe meinen Agenten gebeten, „eine Verbesserung des Hook-Dispatch-Systems zu untersuchen“. Der Agent schätzte sein eigenes Vertrauen auf 0,58 ein, was den deliberation system auslöste. Es entstanden drei Forschungsagenten. Jeder fand Unterprobleme und brachte seine eigenen Forschungsagenten hervor. Diese Agenten haben mehr hervorgebracht.

Sieben Minuten später: 23 Wirkstoffprozesse. API-Guthaben im Wert von 4,80 $. Der Token-Verbrauch steigt auf 0,70 $ pro Minute.

Der Rekursionswächter verfolgte die Tiefe (Eltern erzeugt Kind, Kind erzeugt Enkel), aber nicht die Breite (Eltern erzeugt 12 Kinder, die jeweils 12 weitere erzeugen). Die Tiefenbegrenzung von 3 wurde nie ausgelöst, da sich die Wirkstoffe horizontal ausbreiten. Ich habe die Prozesse manuell beendet.

Alle Agenten waren sich einig, dass das Hook-Dispatch-System einer Verbesserung bedarf. Jeder Agent schlug vernünftige Änderungen vor. Kein einziger Beamter stellte in Frage, ob die Untersuchung selbst den richtigen Umfang hatte.

Das Ergebnis zeigt, was passiert, wenn Zusammenhalt und Ausrichtung, aber keine Trennung vorhanden sind. Die Agenten kamen zu derselben Schlussfolgerung (Kohäsion) und orientierten sich an denselben Bewertungskriterien (Alignment). Aber nichts hinderte sie daran, sich auf dasselbe Teilproblem zu konzentrieren. In Reynolds‘ Begriffen besetzten 23 Boide denselben Punkt im Raum, ein Verhalten, das seine Trennungsregel ausdrücklich verhindert.


Das Spawn-Budget als Trennung

Die Reparatur dauerte 20 Minuten. Ein Spawn-Budget, das die Gesamtzahl der aktiven Kinder pro Eltern verfolgt und auf 12.4 begrenzt ist. Eine Breitenbeschränkung, nicht nur die Tiefe.

Im Großen und Ganzen ist das Spawn-Budget die Trennungsregel: Überdrängen Sie Ihre Nachbarn nicht. Um es auf die Agentensprache auszudrücken: Setzen Sie nicht mehr als N Agenten auf ein Teilproblem ein, da der N+1. Agent die Kosten erhöht, ohne die Perspektive hinzuzufügen. Der Vorfall mit 23 Agenten hat mich gelehrt, dass die Trennungsregel die wichtigste der drei ist. Ohne sie werden Ausrichtung und Zusammenhalt pathologisch: Agenten konvergieren enthusiastisch zu derselben falschen Antwort.

Aus genau diesem Grund gewichtet der Algorithmus von Reynolds die Trennkraft normalerweise 1,5–2x höher als die Ausrichtung oder Kohäsion. Die härteste Einschränkung erhält die härteste Durchsetzung.


Warum mehr Regeln Agenten schlechter machen

Schalten Sie oben die Vogelschwarmsimulation um. Stellen Sie sich nun vor, Sie würden eine vierte Regel hinzufügen: „Vermeiden Sie die Mitte der Leinwand.“ Ein Fünftel: „Bevorzugen Sie die obere Hälfte.“ Ein Sechster: „Alle 100 Bilder den Kurs umkehren.“

Jede Regel ist einzeln sinnvoll. Gemeinsam vernichten sie die Herde. Die Boids schwanken zwischen konkurrierenden Kräften und sind nicht in der Lage, alle Zwänge gleichzeitig zu erfüllen. Die elegante Beflockung zerfällt in Lärm.

Ich habe das gleiche Muster bei der Agenten-Orchestrierung beobachtet. Frühere Versionen meines Beratungssystems hatten ausgefeilte Regeln: minimale Recherchetiefe, obligatorische Anzahl der Zitate, erforderliche Generierung von Gegenargumenten, erzwungene „Devil’s Advocate“-Pässe. Jede Regel verbesserte einen bestimmten Fehlerfall. Gemeinsam stellten sie Agenten her, die mehr Geld für die Erfüllung von Regeln als für die Lösung von Problemen ausgeben.

Das von mir dokumentierte compounding engineering philosophy erklärt, warum dies auf Systemebene geschieht: Jede neue Regel interagiert mit jeder vorhandenen Regel und erzeugt kombinatorische Komplexität. Zehn Regeln führen nicht zu zehn Einschränkungen. Sie erzeugen potenziell 45 paarweise Wechselwirkungen. Das Verhalten des Systems ist schwerer vorherzusagen, schwieriger zu debuggen und es ist wahrscheinlicher, dass es zu einem Ausfall kommt.

Reynolds‘ Originalarbeit hat dies implizit verstanden. Er beschränkte sich auf drei Regeln, nicht weil er sich nicht mehr vorstellen konnte, sondern weil drei ausreichten. Das Hinzufügen einer vierten hätte eine Neuausrichtung der Gewichte aller vier erfordern müssen, ein Problem, das mit jeder Hinzufügung exponentiell zunimmt.

Die Agenten-Lektion: Beginnen Sie mit den Mindestregeln, die das gewünschte Verhalten hervorrufen. Fügen Sie Regeln nur hinzu, wenn Sie einen bestimmten Fehler beobachten, der durch keine vorhandene Regel behoben wird. Und wenn Sie eine Regel hinzufügen, prüfen Sie, ob sie die anderen beeinträchtigt.


Die Leere, die Struktur schafft

Das Entstehen aus einfachen Regeln hat eine philosophische Dimension, die mit etwas Unerwartetem in meinem Schreiben verbunden ist.

Nothing is structural. Das Fehlen eines zentralen Controllers ist keine Einschränkung von Boids. Es ist die Architektur. Der Schwarm koordiniert sich, weil kein einzelner Vogel Autorität über die anderen hat. Wenn ein Vogel zum Anführer würde, würde das System brüchig werden, vom Urteil dieses Vogels abhängig und anfällig für sein Scheitern sein.

Gleiches gilt für Agenten. Mein Beratungssystem funktioniert weil kein einzelner Agent ein Vetorecht hat. Jeder Agent bewertet unabhängig. Das Konsensprotokoll fasst ihre Ergebnisse zusammen. Wenn ein Agent Müll produziert, überstimmen ihn die anderen. Wenn ich einen „leitenden Agenten“ mit Überschreibungsbefugnissen hinzufügen würde, würde ich den Single-Point-of-Failure wieder einführen, den ich gezielt beseitigen wollte.

Lao Tzu, zitiert im selben Beitrag: „Passen Sie das Nichts darin an den jeweiligen Zweck an.“5 Der leere Raum im Boids-Algorithmus (das Fehlen zentraler Kontrolle) ist das Strukturelement, das eine entstehende Koordination ermöglicht.


Neue Muster in anderen Bereichen

Das Muster „einfache Regeln, auftauchendes Verhalten“ gilt nicht nur für Boids oder Agenten. Es erscheint überall dort, wo lokale Entscheidungen zu einer globalen Struktur zusammengefasst werden:

Hamming codes demonstrieren eine verwandte Form der Emergenz. Durch die strategische Platzierung von Paritätsbits an Positionen, die Potenzen von 2 sind, entsteht ein System, in dem sich die Fehlerposition aus der XOR-Verknüpfung der Positionen aller „1“-Bits ergibt. Kein Bit weiß, wo der Fehler liegt. Der Fehlerort ergibt sich aus der Struktur. Ein einzelnes Paritätsbit sagt Ihnen für sich genommen fast nichts. Mehrere Paritätsbits an den richtigen Positionen sagen Ihnen alles.

Conway’s Game of Life erzeugt Segelflugzeuge, Oszillatoren und Turing-vollständige Berechnungen aus vier Regeln, die auf ein Gitter angewendet werden. Die Regeln sind einfacher als bei Boiden (eine Zelle lebt, wenn sie 2-3 Nachbarn hat, andernfalls stirbt sie). Die entstehende Komplexität ist unbegrenzt.

In jedem Fall ist das Muster dasselbe: lokale Regeln, kein zentraler Koordinator, sich abzeichnendes globales Verhalten. Und in jedem Fall gilt der gleiche Fehlermodus: Wenn man zu viele Regeln hinzufügt, bricht das System vom eleganten Entstehen in eine chaotische Interferenz zusammen.


Wichtige Erkenntnisse

Für Ingenieure, die Multiagentensysteme entwerfen:

  • Drei Regeln erzeugen eine Beflockung. Bei vier Regeln ist das vielleicht nicht der Fall. Reynolds kam zu der Erkenntnis, dass drei gut gewählte Regeln für eine entstehende Koordination ausreichen. Das Hinzufügen einer vierten führt zu Störungen, die das Verhalten der ersten drei zerstören können. Beginnen Sie mit den Mindestregeln, die das gewünschte Verhalten hervorrufen.

  • Trennung ist die wichtigste Regel. Ohne sie werden Ausrichtung und Zusammenhalt pathologisch, und die Akteure konvergieren zu derselben falschen Antwort. Die spawn budget (Breitenbeschränkung) war die wirkungsvollste Einzeländerung, die ich an meinem Multiagentensystem vorgenommen habe.

Für Architekten, die verteilte Systeme bauen:

  • Das Fehlen eines Anführers ist die Architektur. Zentralisierte Kontrolle schafft einen Single Point of Failure. Eine dezentrale Koordination durch lokale Regeln ist resilienter. Entwerfen Sie Ihre Agentensysteme ohne einen „Lead Agent“, es sei denn, Sie haben einen bestimmten Grund, einen hinzuzufügen.

  • Mehr Regeln erzeugen mehr Interaktionen. N Regeln erzeugen bis zu N(N-1)/2 paarweise Interaktionen. Mit jeder Hinzufügung wird das Verhalten schwieriger vorherzusagen. Fügen Sie Regeln nur hinzu, wenn Sie einen bestimmten Fehler beobachten, der durch keine vorhandene Regel behoben wird.


Teil der Interactive Explorations-Serie, in der Algorithmen auf visuelle Intuition treffen: von Hamming codes that catch their own mistakes bis zu Boids, die ohne Anführer fliegen. Die Agent-Orchestrierungsmuster werden im Detail in The Ralph System und Multi-Agent Deliberation angezeigt. Der metacognitive programming layer fügt die Selbstüberwachung einzelner Agenten hinzu, um die oben genannte Koordination zwischen Agenten zu ergänzen.



  1. Reynolds, C. W. (1987). „Herden, Herden und Schulen: Ein verteiltes Verhaltensmodell.“ SIGGRAPH ‘87: Tagungsband der 14. Jahreskonferenz über Computergrafik und interaktive Techniken, S. 25–34. red3d.com/cwr/boids/ 

  2. Reynolds erhielt 1998 den Scientific and Engineering Award der Academy of Motion Picture Arts and Sciences für seine Beiträge zur Verhaltensanimation, die auf der Arbeit von Boids aufbauen. Der Algorithmus wird seit Batman Returns (1992) in der Filmproduktion eingesetzt. oscars.org/sci-tech/ceremonies/1998. Siehe auch Reynolds‘ Lebenslauf: red3d.com/cwr/resume.html

  3. „Revisiting Boids for Emergent Intelligence via Multi-Agent Collaboration.“ NeurIPS 2025 Workshop: Skalierungsumgebung. openreview.net/pdf?id=46LJ81Yqm2. Das Papier wendet Boids-Regeln als Anleitung in natürlicher Sprache für Agenten an, die einer Observe-Reflect-Build-Schleife folgen. 

  4. Die Umsetzung des Spawn-Budgets ist in The Ralph System dokumentiert. Die wichtigste architektonische Entscheidung: Breitenbeschränkungen durch Hooks (deterministisch) und nicht durch Eingabeaufforderungen (beratend) erzwingen. Ein Agent, der angewiesen wird, „das Spawnen zu begrenzen“, wird über das Limit hinaus rationalisieren. Ein Hook, der aktive Kinder zählt und den Spawn-API-Aufruf blockiert, kann dies nicht. 

  5. Lao Tzu, Tao Te Ching, Kapitel 11. Übersetzung: James Legge. In der vollständigen Passage geht es um die Nabe eines Rades, die Wände eines Raums und den Ton eines Gefäßes: drei Beispiele, bei denen der Nutzen aus der Leere und nicht aus dem Material kommt. Die vollständige Erkundung finden Sie unter Nothing is Structural