콘텐츠로 이동

Agent Team (에이전트 팀 / 연합)

한 줄 정의

여러 Claude가 서로 대화하며 협업하는 팀. 팀장이 일을 나누고, 팀원들이 각자 조사 후 토론하여 결론을 만든다.

비유

프로젝트 팀 회의. 팀장이 주제를 던지면, 기획자/마케터/리서처가 각자 조사하고, 결과를 가지고 회의에서 토론하여 최종안을 도출한다.


핵심 특징

항목 내용
실행 주체 팀장(Lead) 1명 + 팀원(Teammate) 여러 명
실행 환경 각자 독립된 컨텍스트 + 공유 작업 목록
실행 방법 "에이전트 팀을 만들어줘"라고 자연어로 요청
팀원 간 소통 O (서로 메시지 주고받기 가능)
코딩 필요 X (자연어로 팀 구성 지시)

Sub-agent와 핵심 차이

Sub-agent:
  메인 → 팀원A (독립 조사) → 결과 보고
  메인 → 팀원B (독립 조사) → 결과 보고
  ※ A와 B는 서로 모름. 소통 불가.

Agent Team:
  팀장 → 팀원A, 팀원B, 팀원C 동시 배치
  팀원A ↔ 팀원B ↔ 팀원C (서로 대화 가능)
  팀장이 종합하여 최종 결론 도출
  ※ A, B, C가 서로의 발견을 공유하고 토론 가능.
Sub-agent Agent Team
팀원 간 소통 X O
공유 작업 목록 X O
토론/반박 X O
토큰 비용 낮음 높음
적합한 작업 독립 조사 다관점 협업

팀 구성 예시: 출판사 에이전트 연합

┌─────────────────────────────────────┐
│           편집장 (Lead/팀장)          │
│      전체 진행 조율, 최종 의사결정      │
├─────────┬──────────┬───────────────┤
│ 기획자1  │ 기획자2   │    마케터       │
│ 독자관점 │ 시장관점  │   판매관점      │
│ 분석     │ 분석     │    분석         │
└─────────┴──────────┴───────────────┘
     ↕          ↕           ↕
   서로 대화하며 토론 가능

실행 방법

"에이전트 팀을 만들어줘.
편집장 1명, 기획자 2명(독자관점/시장관점), 마케터 1명.
'AI와 자서전 쓰기' 책을 기획해줘.
각자 조사 후 편집장이 종합해서 최적의 기획안을 만들어줘."

왜 Agent Team이어야 하는가

Skill로 하면:
  Claude 1명이 "독자 관점으로 조사" → "시장 관점으로 조사" 순차 실행
  → 첫 번째 조사 결과가 두 번째 관점에 영향을 줌 (편향)
  → 진짜 독립적인 관점이 안 나옴

Agent Team으로 하면:
  3명이 동시에 각자 조사 (서로 모르는 상태)
  → 진짜 다른 관점이 나옴
  → 조사 후 서로 토론하며 약점 보완
  → 편집장이 종합하여 균형 잡힌 기획안 도출

현재 제한사항

  • 실험적 기능 (설정에서 활성화 필요)
  • 토큰 소비 많음 (팀원 수 × 각자의 작업량)
  • Windows에서 split-pane 모드 미지원 (in-process 모드는 가능)
  • 세션 재개(resume) 시 팀원 복원 안 됨
  • 한 세션에 하나의 팀만 가능

활성화 방법

settings.json에 추가:

{
  "env": {
    "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
  }
}


Agent Team이 최적인 경우

  • 책 기획: 독자/시장/마케팅 다관점 조사 + 토론
  • 코드 리뷰: 보안/성능/테스트 각 전문가가 동시 리뷰
  • 디버깅: 여러 가설을 동시에 검증하고 서로 반박
  • 마케팅 전략: 채널별(블로그/인스타/유튜브) 독립 기획 후 종합

Agent Team이 과한 경우

  • 일상 반복 작업 → Skill
  • 단순 대량 조사 → Sub-agent
  • 이미지/파일 정리 → Cowork
  • 순차적 작업 → Skill

실전 경험: Sub-agent vs Agent Team 비교 (2026-02-23)

배경

youtube-workflow 스킬의 "주간 리포트 자동 생성"을 두 방식으로 테스트. AI 뉴스 30개 소스 스캔 → 유튜브 경쟁 분석 → 주제 후보 생성.

방법 A: Sub-agent (Task 도구) — 실전 완료

메인 Claude (편집장)
  ├─ Task A1: AI 플랫폼 소스 6개 WebFetch
  ├─ Task A2: 크리에이티브+뉴스 15개 (WebFetch+WebSearch)
  ├─ Task B:  유튜브 경쟁 분석 (yt-dlp+WebSearch)
  └─ Task C:  오픈소스+커뮤니티 (WebSearch)

  → 4개 동시 발사 → 결과 수집 → 편집장이 교차 분석 → 주제 후보 생성

실측 결과: | 항목 | 값 | |------|-----| | 라운드 1 소요 | ~3.5분 (4개 동시, 가장 느린 에이전트 기준) | | 수집량 | AI 소식 30건+, 유튜브 40건+, 오픈소스 모델 8개 | | 핫 토픽 교차 분석 | 6개 식별 (2개 이상 에이전트에서 동시 언급) | | 최종 주제 후보 | 7개 (5/5 통과 5개) | | 리포트 | docs/weekly/2026-W09.md에 자동 저장 |

장점: - 안정적, 즉시 사용 가능 - 편집장(메인 Claude)이 전체 맥락(채널 정체성, 과거 영상)을 갖고 있어서 판단이 정확 - 라운드 2 보충 조사 유연하게 가능 - 토큰 효율적

단점: - 에이전트끼리 직접 대화 불가 (A1이 발견한 것을 A2가 모름) - 모든 종합은 메인 Claude가 해야 함

방법 B: Agent Team — 실전 완료 (2026-02-23)

팀장 (Lead, opus)
  ├─ researcher-a1 (sonnet) — AI 플랫폼 6개 소스
  ├─ researcher-a2 (sonnet) — 크리에이티브+뉴스 15개
  ├─ youtube-analyst (sonnet) — 유튜브 경쟁 분석
  └─ opensource-researcher (sonnet) — 오픈소스+커뮤니티

  → 조사 후 교차 토론 2라운드 (팀원끼리 DM 교환)

실측 결과: | 항목 | 값 | |------|-----| | 라운드 1 (독립 조사) | ~2분 | | 교차 토론 라운드 1 | ~2분 | | 교차 토론 라운드 2 | ~2분 | | 총 소요 | ~16분 (팀 생성+지시 포함) | | 수집량 | Method A와 동일 수준 | | 핫 토픽 | 5개 | | 최종 주제 후보 | 5개 | | 팀원 간 DM | 8건+ (A1↔유튜브, A2↔오픈소스) | | 리포트 | docs/weekly/2026-W09-methodB.md |

교차 토론이 추가한 가치 (Method A에 없던 것): 1. 팩트체크 자동화: A1이 Claude Code Security 원문 검증 → "비개발자 대상 아님" 확인 → 유튜브 분석가가 즉시 주제 순위 재조정 2. 합동 비교표: A2+오픈소스가 DM으로 소통하며 Veo 3 vs LTX-2 상세 비교표 공동 작성 3. 톤 보정: "무료로 Kling 3.0급" 표현 자체 검열 → 채널 신뢰도 보호 4. 체계적 빈틈 검증: 7개 핫 토픽 각각 한국어 영상 존재 여부 개별 확인

Method A가 더 나은 점: 1. 시간 3배 빠름 (5분 vs 16분) 2. 시그니처형 주제 더 풍부 (Claude in PowerPoint, GPT-5.3-Codex 추가 포착) 3. 편집장의 채널 맥락이 직접 주제 생성에 반영됨

실전 판단 기준 (실험 후 확정)

[주간 리포트 같은 반복 조사]
  → Sub-agent가 효율적 (시간 1/3, 결과 동일)

[특정 주제 심층 분석]
  → Agent Team이 유용 (팩트체크, 비교 분석, 자동 보정)

[최적 조합 (추천)]
  → Method A로 빠르게 조사 → 핵심 주제 1~2개에 대해 Agent Team식 교차 토론

[핵심 질문: "팀원끼리 대화해야 더 나은 결과가 나오는가?"]
  → YES → Agent Team
  → NO → Sub-agent (대부분의 경우 이쪽)

Agent Team 실전 팁 (실험에서 배운 것)

  1. 팀원은 sonnet으로 충분 — 조사+요약 수준에서 opus 불필요, 비용 ~1/5
  2. 교차 토론 지시가 핵심 — 그냥 "토론해"가 아니라 "A1은 유튜브에게 X를 물어봐" 식으로 구체적 쌍을 지정해야 효과적
  3. 라운드 제한 필수 — 2라운드면 충분. 더 하면 비용 대비 가치 감소
  4. 팀장이 다른 팀원 결과를 요약해서 전달 — 팀원끼리 직접 결과를 공유하지 않으므로, 팀장이 "A2의 핵심 발견은 이거야" 식으로 컨텍스트를 줘야 함
  5. 셧다운 시 broadcast → shutdown_request 순서 — 작업 완료 알림 후 개별 셧다운
  6. 메일함 json 파일로 팀원 간 대화 확인 가능~/.claude/teams/{팀이름}/inboxes/ 폴더

활성화 설정 (완료, 2026-02-23)

settings.json에 추가 완료:

{
  "env": {
    "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
  }
}
- Claude Code 재시작 후 적용 - VS Code에서는 in-process 모드 (Shift+Up/Down으로 팀원 전환) - 평소에는 아무 영향 없음 (명시적으로 요청해야만 작동)

확실한 트리거 문장

"에이전트 팀 만들어줘"만 하면 Sub-agent나 페르소나 전환으로 빠질 수 있음. TeamCreate를 확실히 트리거하는 문장:

"TeamCreate로 에이전트 팀을 만들어줘"

도구 이름(TeamCreate)을 명시해야 정확하게 Agent Team이 생성된다.


비용 최적화 팁

  • 팀원 수 최소화: 꼭 필요한 관점만. 3~4명이면 충분
  • 모델 지정 가능: Use Sonnet for each teammate — 비용 줄이기
  • 계획 승인 모드: 팀원이 계획을 먼저 보여주고, 승인 후 실행 → 낭비 방지
  • 위임 모드: 팀장이 직접 작업 안 하고 조율만 → Shift+Tab

Agent Team vs Sub-agent — deferred tool 차이 (중요)

Agent Team 팀원 = 독립 Claude Code 세션
  → CLAUDE.md 자동 로드
  → MCP 자동 연결
  → Deferred tool (WebFetch/WebSearch) 자동 로드
  → ToolSearch 불필요!

Sub-agent (Task 도구) = 메인 세션의 자식 프로세스
  → CLAUDE.md 접근 가능
  → MCP 상속됨
  → Deferred tool 자동 로드 안 됨!
  → 프롬프트에 ToolSearch 지시 필수

이 차이 때문에 Method C를 Sub-agent → Agent Team으로 전환 결정 (2026-02-24)


유튜브 설명용 프레이밍 (비개발자 타겟)

한 줄 설명

"AI한테 '팀 짜서 일해'라고 시키는 것. 진짜로 여러 명이 동시에 일하고 토론한다."

시청자가 이해할 비유 3가지

1) 회사 프로젝트 팀 - 팀장이 "너는 시장 조사, 너는 고객 분석, 너는 경쟁사 분석" 배정 - 각자 조사 → 회의실에서 발표 + 토론 → 최종안 도출 - 핵심: "AI가 혼자 하는 게 아니라 진짜 팀으로 일한다"

2) 요리 대결 vs 혼자 요리 - 혼자 요리: 재료 손질 → 조리 → 플레이팅 (순차, 한 관점) - 팀 요리: 셰프 3명이 동시에 각자 요리 → 맛 비교 → 최고의 한 접시 - 핵심: "동시에 여러 시도 → 비교 → 최선 선택"

3) 카톡 단체방 브레인스토밍 - 방장이 주제 던짐 → 각자 의견 → 서로 "그건 이래서 안 돼" 반박 - 혼자 생각하면 놓치는 걸 여러 명이 잡아줌 - 핵심: "AI끼리 반박하고 보완해서 빈틈 없는 결과"

영상에서 보여줄 포인트

보여줄 것 왜 임팩트 있는지
팀원 4명 동시에 돌아가는 화면 "진짜 동시에 일한다" 시각적 충격
팀원끼리 DM 주고받는 장면 "AI끼리 대화한다"는 게 신기함
혼자 vs 팀 결과물 비교 Before/After가 가장 설득력 있음
최종 결과물 퀄리티 "이걸 자연어 한 줄로 시켰다"는 놀라움

설명할 때 주의할 점

  • "코딩 안 해요" 반드시 강조. 시청자 대부분 비개발자
  • 비용 언급 빠뜨리지 않기. "무조건 좋다"가 아니라 "이럴 때 쓰면 가성비 좋다"
  • Sub-agent와 헷갈리지 않게. 시청자한테는 "보조 AI"(Sub-agent) vs "AI 팀"(Agent Team)으로 구분
  • 실제 사용 장면이 핵심. 개념 설명 30% + 실제 화면 70%
  • "이거 실험 기능이라 설정 켜야 해요" → 진입장벽 낮추는 튜토리얼 필수

추천 영상 구성

[도입] "AI 하나한테 시키는 시대는 끝났습니다"
  → AI 팀을 만들 수 있다는 훅

[개념] 30초~1분 비유 설명 (회사 팀 비유)
  → "보조 AI"와 "AI 팀"의 차이 한 장면으로

[시연] 실제로 팀 만들어서 일 시키는 전 과정
  → 자연어로 지시 → 팀원 생성 → 동시 작업 → 토론 → 결과

[비교] 혼자 시켰을 때 vs 팀으로 시켰을 때 결과물 차이

[정리] 언제 쓰면 좋고, 비용은 얼마나 드는지
  → "매일 쓰는 게 아니라, 중요한 기획할 때 꺼내 쓰는 비장의 무기"

참고

  • 공식 문서
  • Sub-agent 문서
  • Agent 설계 실전 가이드 — 함정, 체크리스트, 사고 일지
  • Agent Team은 가장 강력하지만 가장 비용이 큰 도구
  • "진짜 다른 관점이 필요할 때"만 사용하는 것이 효율적
  • 주간 리포트 같은 독립 조사는 Sub-agent가 가성비 최고