Multi-Agent-Collaboration: KI-Teams mit klaren Rollen

Lass mehrere Agents zusammenarbeiten, Zwischenergebnisse austauschen und sich gegenseitig prüfen, um komplexe Aufgaben zuverlässiger zu lösen.
Auf dieser Seite
  1. Kern des Patterns
  2. Problem
  3. Loesung
  4. Wie es funktioniert
  5. Im Code sieht das so aus
  6. So sieht das waehrend der Ausfuehrung aus
  7. Wann es passt - und wann nicht
  8. Passt
  9. Passt nicht
  10. Unterschied zu Orchestrator
  11. Wann Multi-Agent Collaboration verwenden (vs andere Patterns)
  12. Wie man es mit anderen Patterns kombiniert
  13. Kurz gesagt
  14. Vorteile und Nachteile
  15. FAQ
  16. Was als Naechstes

Kern des Patterns

Multi-Agent Collaboration ist ein Pattern, bei dem mehrere Agenten an einem Ziel arbeiten, Ergebnisse austauschen, sich gegenseitig pruefen und ein gemeinsames finales Output erzeugen.

Wann sinnvoll: wenn eine Aufgabe mehrere Rollen oder Expertisen plus gegenseitige Validierung benoetigt.


Statt des Modells "ein Agent macht alles" laeuft das System so:

  • verteilt Rollen auf Agenten
  • organisiert gemeinsamen Kontext
  • startet mehrere Interaktionsrunden
  • sammelt ein abgestimmtes Ergebnis

Multi-Agent-Collaboration: gemeinsame Arbeit von Agenten

Problem

Stell dir vor, du musst einen Investment-Report vorbereiten.

Dafuer braucht es gleichzeitig:

  • Markt- und Wettbewerbsanalyse
  • Berechnung eines Finanzmodells
  • Pruefung rechtlicher Risiken
  • Zusammenfuehrung zu einer logischen Gesamtaussage

Wenn ein Agent alles erledigt, wechselt er staendig zwischen Rollen und verliert Fokus.

Ein einzelner Agent liefert meist entweder Tiefe in einem Teil oder den Gesamtblick, aber selten beides gut.

Das fuehrt oft zu:

  • wichtigen Details, die fehlen
  • vermischten Rollen: Analyst, Jurist und Editor in einer Antwort
  • Widerspruechen zwischen Dokumentabschnitten
  • finalem Text, der geschlossen wirkt, aber schwach validiert ist

Das ist das Problem: fuer eine komplexe Multi-Domain-Aufgabe reicht ein Agent meist nicht aus.

Loesung

Multi-Agent Collaboration verteilt Arbeit auf spezialisierte Agenten und fuehrt Ergebnisse in Runden zusammen.

Analogie: wie ein Fachgremium. Jeder verantwortet einen Teil, danach gleicht das Team die Ergebnisse ab. Das finale Ergebnis entsteht durch Abstimmung, nicht durch eine Einzelmeinung.

Schluesselprinzip: Entscheidend sind nicht viele Agenten, sondern klare Rollen, Austausch von Zwischenergebnissen und Abstimmungsregeln.

Jeder Agent liefert ein Teilergebnis, waehrend die Collaboration-Layer den Prozess steuert:

  1. Rollen zuweisen (Assign Roles): Verantwortung nach Domains verteilen
  2. Arbeiten (Work): Ergebnisse von jedem Agenten erhalten
  3. Austausch/Review (Exchange/Review): gegenseitig pruefen und verfeinern
  4. Konflikte loesen (Resolve): Widersprueche zwischen Schlussfolgerungen entfernen
  5. Finale Synthese (Synthesize): gemeinsames finales Output bauen

Das liefert:

  • mehr Tiefe pro Domain
  • gegenseitige Querpruefung zwischen Agenten
  • weniger uebersehene Aspekte
  • abgestimmte finale Schlussfolgerung

Funktioniert gut, wenn:

  • Rollen und Verantwortungsgrenzen klar sind
  • Shared State und Message Format strukturiert sind
  • die Rundenzahl begrenzt ist (max_rounds)
  • Resolve-Regeln und Ready-Kriterium definiert sind

Das Modell kann "wollen", unendlich nachzuschaerfen, aber collaboration-policy beendet den Prozess innerhalb der gesetzten Grenzen.

Wie es funktioniert

Diagram

Agenten sind nicht voneinander isoliert.

Sie interagieren ueber Shared State: Blackboard, Shared Memory oder eine strukturierte Message Queue.

Beschreibung des gesamten Ablaufs: Assign Roles → Work → Exchange → Synthesize

Rollen zuweisen (Assign Roles)
Das System definiert Verantwortung: Research, Analyse, Validierung, Synthese.

Arbeiten (Work)
Jeder Agent fuegt seinen Beitrag in den gemeinsamen Zustand ein.

Austausch (Exchange)
Agenten lesen Ergebnisse der anderen, kommentieren, klaeren Widersprueche und verbessern den gemeinsamen Zustand.

Synthese (Synthesize)
Nach mehreren Runden sammelt das System ein abgestimmtes finales Output.

Im Code sieht das so aus

PYTHON
agents = [research_agent, finance_agent, risk_agent]
board = {"goal": goal, "draft": {}, "notes": []}

def find_conflicts(draft):
    # Vereinfachtes Beispiel: wenn Agenten-Schlussfolgerungen abweichen, ist es ein Konflikt.
    summaries = {str(value).strip().lower() for value in draft.values()}
    return [] if len(summaries) <= 1 else ["Abstimmung der Schlussfolgerungen erforderlich"]

for round_no in range(1, max_rounds + 1):
    # 1) Jeder Agent schreibt seinen Teil auf das gemeinsame Board
    board["draft"]["research"] = research_agent.work(board)
    board["draft"]["finance"] = finance_agent.work(board)
    board["draft"]["risk"] = risk_agent.work(board)

    # 2) Pruefen, wo Schlussfolgerungen einander widersprechen
    conflicts = find_conflicts(board["draft"])

    # 3) Ohne Konflikte kann beendet werden
    if not conflicts:
        break

    # 4) Mit Konflikten: speichern und naechste Runde starten
    board["notes"].append(conflicts)

final_report = build_final_report(board)
return final_report

Kurz: Agenten arbeiten nicht "jeder fuer sich", sondern ueber ein gemeinsames board, auf dem Beitraege und Konflikte fuer alle sichtbar sind.

So sieht das waehrend der Ausfuehrung aus

TEXT
Goal: finalen Bericht fuer eine komplexe Unternehmenspruefung erstellen

Runde 1:
- Research Agent: Marktueberblick hinzugefuegt
- Finance Agent: Finanzberechnungen hinzugefuegt
- Risk Agent: rechtliche Risiken hinzugefuegt
- System findet Konflikt: "optimistische Wachstumsprognose" vs "regulatorische Einschraenkungen"
- Zwischen Runden: Konflikt in board["notes"] gespeichert und zur Ueberarbeitung zurueckgegeben

Runde 2:
- Finance Agent berechnet Modell unter Beruecksichtigung der Risiken neu
- Research Agent praezisiert Wettbewerberdaten
- Risk Agent validiert aktualisierte Annahmen
- System findet neuen Konflikt: "schneller Markteintritt" vs "zusaetzliche regulatorische Anforderungen"
- Zwischen Runden: strittige Punkte erneut zur Ueberarbeitung gesendet

Runde 3:
- Agenten stimmen letzte Widersprueche ab
- Keine Konflikte mehr
- System erzeugt finalen Bericht

Vollstaendiges Multi-Agent-Collaboration-Beispiel

PYPython
TSTypeScript · bald

Wann es passt - und wann nicht

Passt

SituationWarum dieses Pattern passt
Multi-Domain-Aufgabe mit unterschiedlicher ExpertiseJeder Agent bringt Spezialisierung ein, das Ergebnis wird zu einer Entscheidung zusammengefuehrt.
Qualitaet ist wichtiger als minimale LatenzZusaetzliche Abstimmungsrunden erhoehen Qualitaet, auch wenn Antwortzeit steigt.
Gegenseitige Validierung ist erforderlichAgenten finden Luecken der anderen ueber Cross-Review.
Ein Agent verpasst oft AspekteCollaboration reduziert Blind Spots durch unterschiedliche Rollen und Perspektiven.

Passt nicht

SituationWarum dieses Pattern nicht passt
Aufgabe ist einfach und gleichfoermigKoordinations-Overhead ist groesser als der praktische Nutzen.
Kritisch minimale AntwortzeitMehrere Austausch-Runden erhoehen Latenz.
Keine Infrastruktur fuer Shared State und SynchronisierungOhne gemeinsamen Kontext und Koordination sind Agenten-Ergebnisse schwer abstimmbar.

Denn Collaboration fuegt zusaetzliche Kommunikationsrunden und Koordinations-Overhead hinzu.

Unterschied zu Orchestrator

OrchestratorMulti-Agent Collaboration
StrukturZentraler KoordinatorGemeinsame Arbeit mehrerer Agenten in Runden
InteraktionstypUeberwiegend Teilaufgaben-DelegationAustausch von Zwischenergebnissen und gegenseitiges Review
OptimierungAusfuehrungsgeschwindigkeit und Flow-ControlEntscheidungsqualitaet und Multi-Domain-Konsistenz
RisikoFalsches DispatchingKonflikte zwischen Agenten-Antworten

Orchestrator beantwortet: "wie Arbeit verteilen".

Multi-Agent Collaboration beantwortet: "wie Agenten gemeinsam eine Entscheidung abstimmen".

Wann Multi-Agent Collaboration verwenden (vs andere Patterns)

Verwende Multi-Agent Collaboration, wenn mehrere Agenten ein gemeinsames Output liefern muessen und ihre Schlussfolgerungen konfligieren koennen.

Kurzer Test:

  • wenn du "unterschiedliche Sichtweisen in eine finale Schlussfolgerung abstimmen" musst -> Multi-Agent Collaboration
  • wenn es reicht, "Aufgaben in Schritten zu uebergeben und Ergebnis zu sammeln" -> Orchestrator Agent
Vergleich mit anderen Patterns und Beispiele

Schnelluebersicht:

Wenn die Aufgabe so aussieht...Verwende
Ein bester Ausfuehrer soll ausgewaehlt werdenRouting Agent
Es gibt eine Schrittfolge und die Reihenfolge ist wichtigOrchestrator Agent
Ein Policy-Check vor Ergebnis ist noetigSupervisor Agent
Mehrere Agenten muessen zu einer Schlussfolgerung kommenMulti-Agent Collaboration

Beispiele:

Routing: "Kunde fragt nach Rueckerstattung - an Billing schicken, nicht an Sales".

Orchestrator: "Release vorbereiten: zuerst Changelog, dann QA, dann Deploy".

Supervisor: "Vor E-Mail-Versand Policies, Compliance und verbotene Versprechen pruefen".

Multi-Agent Collaboration: "Marketing, Legal und Product muessen einen finalen Kampagnentext abstimmen".

Wie man es mit anderen Patterns kombiniert

  • Collaboration + Supervisor: Sicherheitsregeln werden fuer jeden Agenten und jede Runde geprueft.
  • Collaboration + Orchestrator: Orchestrator synchronisiert Reihenfolge und Abhaengigkeiten zwischen Agentengruppen.
  • Collaboration + RAG: alle Agenten arbeiten auf derselben validierten Wissensbasis, um Widersprueche zu reduzieren.

Kurz gesagt

Kurzfazit

Multi-Agent Collaboration:

  • Verteilt Rollen zwischen Agenten
  • Organisiert Austausch von Zwischenergebnissen
  • Fuehrt mehrere Abstimmungsrunden aus
  • Liefert ein gemeinsames finales Output

Vorteile und Nachteile

Vorteile

verteilt Arbeit auf spezialisierte Agenten

schliesst komplexe Aufgaben schneller ab

Prozess laesst sich leichter skalieren

Ergebnis kann auf mehreren Stufen geprueft werden

Nachteile

Koordination zwischen Agenten ist komplexer

mehr Kosten fuer Tokens und Infrastruktur

Fehlerursache ist schwerer zu finden

FAQ

Q: Muessen Agenten direkt miteinander sprechen?
A: Nein. Meist interagieren sie ueber Shared State oder eine Message Bus.

Q: Wie vermeidet man "Rauschen" zwischen Agenten?
A: Klare Rollen, Message-Format, Rundengrenze (max_rounds) und Abschlusskriterien definieren.

Q: Was, wenn Agenten sich nicht einig sind?
A: Konfliktaufloesung ergaenzen: Voting, Lead-Agent, Supervisor-Policy-Check oder Human Approval.

Was als Naechstes

Multi-Agent Collaboration hilft, Arbeit mehrerer Agenten abzustimmen.

Aber woher bekommen alle Agenten waehrend der Ausfuehrung dieselbe validierte Wissensbasis?

⏱️ 10 Min. LesezeitAktualisiert Mär, 2026Schwierigkeit: ★★★
Praktische Fortsetzung

Beispiele zur Musterimplementierung

Setze das Thema direkt mit Beispielprojekten um.

Integriert: Production ControlOnceOnly
Guardrails für Tool-Calling-Agents
Shippe dieses Pattern mit Governance:
  • Budgets (Steps / Spend Caps)
  • Tool-Permissions (Allowlist / Blocklist)
  • Kill switch & Incident Stop
  • Idempotenz & Dedupe
  • Audit logs & Nachvollziehbarkeit
Integrierter Hinweis: OnceOnly ist eine Control-Layer für Production-Agent-Systeme.
Autor

Diese Dokumentation wird von Engineers kuratiert und gepflegt, die AI-Agenten in der Produktion betreiben.

Die Inhalte sind KI-gestützt, mit menschlicher redaktioneller Verantwortung für Genauigkeit, Klarheit und Produktionsrelevanz.

Patterns und Empfehlungen basieren auf Post-Mortems, Failure-Modes und operativen Incidents in produktiven Systemen, auch bei der Entwicklung und dem Betrieb von Governance-Infrastruktur für Agenten bei OnceOnly.