Agent Team (에이전트 팀 / 연합)¶
한 줄 정의¶
여러 Claude가 서로 대화하며 협업하는 팀. 팀장이 일을 나누고, 팀원들이 각자 조사 후 토론하여 결론을 만든다.
비유¶
프로젝트 팀 회의. 팀장이 주제를 던지면, 기획자/마케터/리서처가 각자 조사하고, 결과를 가지고 회의에서 토론하여 최종안을 도출한다.
핵심 특징¶
| 항목 | 내용 |
|---|---|
| 실행 주체 | 팀장(Lead) 1명 + 팀원(Teammate) 여러 명 |
| 실행 환경 | 각자 독립된 컨텍스트 + 공유 작업 목록 |
| 실행 방법 | "에이전트 팀을 만들어줘"라고 자연어로 요청 |
| 팀원 간 소통 | O (서로 메시지 주고받기 가능) |
| 코딩 필요 | X (자연어로 팀 구성 지시) |
Sub-agent와 핵심 차이¶
Sub-agent:
메인 → 팀원A (독립 조사) → 결과 보고
메인 → 팀원B (독립 조사) → 결과 보고
※ A와 B는 서로 모름. 소통 불가.
Agent Team:
팀장 → 팀원A, 팀원B, 팀원C 동시 배치
팀원A ↔ 팀원B ↔ 팀원C (서로 대화 가능)
팀장이 종합하여 최종 결론 도출
※ A, B, C가 서로의 발견을 공유하고 토론 가능.
| Sub-agent | Agent Team | |
|---|---|---|
| 팀원 간 소통 | X | O |
| 공유 작업 목록 | X | O |
| 토론/반박 | X | O |
| 토큰 비용 | 낮음 | 높음 |
| 적합한 작업 | 독립 조사 | 다관점 협업 |
팀 구성 예시: 출판사 에이전트 연합¶
┌─────────────────────────────────────┐
│ 편집장 (Lead/팀장) │
│ 전체 진행 조율, 최종 의사결정 │
├─────────┬──────────┬───────────────┤
│ 기획자1 │ 기획자2 │ 마케터 │
│ 독자관점 │ 시장관점 │ 판매관점 │
│ 분석 │ 분석 │ 분석 │
└─────────┴──────────┴───────────────┘
↕ ↕ ↕
서로 대화하며 토론 가능
실행 방법¶
"에이전트 팀을 만들어줘.
편집장 1명, 기획자 2명(독자관점/시장관점), 마케터 1명.
'AI와 자서전 쓰기' 책을 기획해줘.
각자 조사 후 편집장이 종합해서 최적의 기획안을 만들어줘."
왜 Agent Team이어야 하는가¶
Skill로 하면:
Claude 1명이 "독자 관점으로 조사" → "시장 관점으로 조사" 순차 실행
→ 첫 번째 조사 결과가 두 번째 관점에 영향을 줌 (편향)
→ 진짜 독립적인 관점이 안 나옴
Agent Team으로 하면:
3명이 동시에 각자 조사 (서로 모르는 상태)
→ 진짜 다른 관점이 나옴
→ 조사 후 서로 토론하며 약점 보완
→ 편집장이 종합하여 균형 잡힌 기획안 도출
현재 제한사항¶
- 실험적 기능 (설정에서 활성화 필요)
- 토큰 소비 많음 (팀원 수 × 각자의 작업량)
- Windows에서 split-pane 모드 미지원 (in-process 모드는 가능)
- 세션 재개(resume) 시 팀원 복원 안 됨
- 한 세션에 하나의 팀만 가능
활성화 방법¶
settings.json에 추가:
Agent Team이 최적인 경우¶
- 책 기획: 독자/시장/마케팅 다관점 조사 + 토론
- 코드 리뷰: 보안/성능/테스트 각 전문가가 동시 리뷰
- 디버깅: 여러 가설을 동시에 검증하고 서로 반박
- 마케팅 전략: 채널별(블로그/인스타/유튜브) 독립 기획 후 종합
Agent Team이 과한 경우¶
- 일상 반복 작업 → Skill
- 단순 대량 조사 → Sub-agent
- 이미지/파일 정리 → Cowork
- 순차적 작업 → Skill
실전 경험: Sub-agent vs Agent Team 비교 (2026-02-23)¶
배경¶
youtube-workflow 스킬의 "주간 리포트 자동 생성"을 두 방식으로 테스트. AI 뉴스 30개 소스 스캔 → 유튜브 경쟁 분석 → 주제 후보 생성.
방법 A: Sub-agent (Task 도구) — 실전 완료¶
메인 Claude (편집장)
├─ Task A1: AI 플랫폼 소스 6개 WebFetch
├─ Task A2: 크리에이티브+뉴스 15개 (WebFetch+WebSearch)
├─ Task B: 유튜브 경쟁 분석 (yt-dlp+WebSearch)
└─ Task C: 오픈소스+커뮤니티 (WebSearch)
→ 4개 동시 발사 → 결과 수집 → 편집장이 교차 분석 → 주제 후보 생성
실측 결과: | 항목 | 값 | |------|-----| | 라운드 1 소요 | ~3.5분 (4개 동시, 가장 느린 에이전트 기준) | | 수집량 | AI 소식 30건+, 유튜브 40건+, 오픈소스 모델 8개 | | 핫 토픽 교차 분석 | 6개 식별 (2개 이상 에이전트에서 동시 언급) | | 최종 주제 후보 | 7개 (5/5 통과 5개) | | 리포트 | docs/weekly/2026-W09.md에 자동 저장 |
장점: - 안정적, 즉시 사용 가능 - 편집장(메인 Claude)이 전체 맥락(채널 정체성, 과거 영상)을 갖고 있어서 판단이 정확 - 라운드 2 보충 조사 유연하게 가능 - 토큰 효율적
단점: - 에이전트끼리 직접 대화 불가 (A1이 발견한 것을 A2가 모름) - 모든 종합은 메인 Claude가 해야 함
방법 B: Agent Team — 실전 완료 (2026-02-23)¶
팀장 (Lead, opus)
├─ researcher-a1 (sonnet) — AI 플랫폼 6개 소스
├─ researcher-a2 (sonnet) — 크리에이티브+뉴스 15개
├─ youtube-analyst (sonnet) — 유튜브 경쟁 분석
└─ opensource-researcher (sonnet) — 오픈소스+커뮤니티
→ 조사 후 교차 토론 2라운드 (팀원끼리 DM 교환)
실측 결과: | 항목 | 값 | |------|-----| | 라운드 1 (독립 조사) | ~2분 | | 교차 토론 라운드 1 | ~2분 | | 교차 토론 라운드 2 | ~2분 | | 총 소요 | ~16분 (팀 생성+지시 포함) | | 수집량 | Method A와 동일 수준 | | 핫 토픽 | 5개 | | 최종 주제 후보 | 5개 | | 팀원 간 DM | 8건+ (A1↔유튜브, A2↔오픈소스) | | 리포트 | docs/weekly/2026-W09-methodB.md |
교차 토론이 추가한 가치 (Method A에 없던 것): 1. 팩트체크 자동화: A1이 Claude Code Security 원문 검증 → "비개발자 대상 아님" 확인 → 유튜브 분석가가 즉시 주제 순위 재조정 2. 합동 비교표: A2+오픈소스가 DM으로 소통하며 Veo 3 vs LTX-2 상세 비교표 공동 작성 3. 톤 보정: "무료로 Kling 3.0급" 표현 자체 검열 → 채널 신뢰도 보호 4. 체계적 빈틈 검증: 7개 핫 토픽 각각 한국어 영상 존재 여부 개별 확인
Method A가 더 나은 점: 1. 시간 3배 빠름 (5분 vs 16분) 2. 시그니처형 주제 더 풍부 (Claude in PowerPoint, GPT-5.3-Codex 추가 포착) 3. 편집장의 채널 맥락이 직접 주제 생성에 반영됨
실전 판단 기준 (실험 후 확정)¶
[주간 리포트 같은 반복 조사]
→ Sub-agent가 효율적 (시간 1/3, 결과 동일)
[특정 주제 심층 분석]
→ Agent Team이 유용 (팩트체크, 비교 분석, 자동 보정)
[최적 조합 (추천)]
→ Method A로 빠르게 조사 → 핵심 주제 1~2개에 대해 Agent Team식 교차 토론
[핵심 질문: "팀원끼리 대화해야 더 나은 결과가 나오는가?"]
→ YES → Agent Team
→ NO → Sub-agent (대부분의 경우 이쪽)
Agent Team 실전 팁 (실험에서 배운 것)¶
- 팀원은 sonnet으로 충분 — 조사+요약 수준에서 opus 불필요, 비용 ~1/5
- 교차 토론 지시가 핵심 — 그냥 "토론해"가 아니라 "A1은 유튜브에게 X를 물어봐" 식으로 구체적 쌍을 지정해야 효과적
- 라운드 제한 필수 — 2라운드면 충분. 더 하면 비용 대비 가치 감소
- 팀장이 다른 팀원 결과를 요약해서 전달 — 팀원끼리 직접 결과를 공유하지 않으므로, 팀장이 "A2의 핵심 발견은 이거야" 식으로 컨텍스트를 줘야 함
- 셧다운 시 broadcast → shutdown_request 순서 — 작업 완료 알림 후 개별 셧다운
- 메일함 json 파일로 팀원 간 대화 확인 가능 —
~/.claude/teams/{팀이름}/inboxes/폴더
활성화 설정 (완료, 2026-02-23)¶
settings.json에 추가 완료:
- Claude Code 재시작 후 적용 - VS Code에서는 in-process 모드 (Shift+Up/Down으로 팀원 전환) - 평소에는 아무 영향 없음 (명시적으로 요청해야만 작동)확실한 트리거 문장¶
"에이전트 팀 만들어줘"만 하면 Sub-agent나 페르소나 전환으로 빠질 수 있음. TeamCreate를 확실히 트리거하는 문장:
"TeamCreate로 에이전트 팀을 만들어줘"
도구 이름(TeamCreate)을 명시해야 정확하게 Agent Team이 생성된다.
비용 최적화 팁¶
- 팀원 수 최소화: 꼭 필요한 관점만. 3~4명이면 충분
- 모델 지정 가능:
Use Sonnet for each teammate— 비용 줄이기 - 계획 승인 모드: 팀원이 계획을 먼저 보여주고, 승인 후 실행 → 낭비 방지
- 위임 모드: 팀장이 직접 작업 안 하고 조율만 →
Shift+Tab
Agent Team vs Sub-agent — deferred tool 차이 (중요)¶
Agent Team 팀원 = 독립 Claude Code 세션
→ CLAUDE.md 자동 로드
→ MCP 자동 연결
→ Deferred tool (WebFetch/WebSearch) 자동 로드
→ ToolSearch 불필요!
Sub-agent (Task 도구) = 메인 세션의 자식 프로세스
→ CLAUDE.md 접근 가능
→ MCP 상속됨
→ Deferred tool 자동 로드 안 됨!
→ 프롬프트에 ToolSearch 지시 필수
이 차이 때문에 Method C를 Sub-agent → Agent Team으로 전환 결정 (2026-02-24)
유튜브 설명용 프레이밍 (비개발자 타겟)¶
한 줄 설명¶
"AI한테 '팀 짜서 일해'라고 시키는 것. 진짜로 여러 명이 동시에 일하고 토론한다."
시청자가 이해할 비유 3가지¶
1) 회사 프로젝트 팀 - 팀장이 "너는 시장 조사, 너는 고객 분석, 너는 경쟁사 분석" 배정 - 각자 조사 → 회의실에서 발표 + 토론 → 최종안 도출 - 핵심: "AI가 혼자 하는 게 아니라 진짜 팀으로 일한다"
2) 요리 대결 vs 혼자 요리 - 혼자 요리: 재료 손질 → 조리 → 플레이팅 (순차, 한 관점) - 팀 요리: 셰프 3명이 동시에 각자 요리 → 맛 비교 → 최고의 한 접시 - 핵심: "동시에 여러 시도 → 비교 → 최선 선택"
3) 카톡 단체방 브레인스토밍 - 방장이 주제 던짐 → 각자 의견 → 서로 "그건 이래서 안 돼" 반박 - 혼자 생각하면 놓치는 걸 여러 명이 잡아줌 - 핵심: "AI끼리 반박하고 보완해서 빈틈 없는 결과"
영상에서 보여줄 포인트¶
| 보여줄 것 | 왜 임팩트 있는지 |
|---|---|
| 팀원 4명 동시에 돌아가는 화면 | "진짜 동시에 일한다" 시각적 충격 |
| 팀원끼리 DM 주고받는 장면 | "AI끼리 대화한다"는 게 신기함 |
| 혼자 vs 팀 결과물 비교 | Before/After가 가장 설득력 있음 |
| 최종 결과물 퀄리티 | "이걸 자연어 한 줄로 시켰다"는 놀라움 |
설명할 때 주의할 점¶
- "코딩 안 해요" 반드시 강조. 시청자 대부분 비개발자
- 비용 언급 빠뜨리지 않기. "무조건 좋다"가 아니라 "이럴 때 쓰면 가성비 좋다"
- Sub-agent와 헷갈리지 않게. 시청자한테는 "보조 AI"(Sub-agent) vs "AI 팀"(Agent Team)으로 구분
- 실제 사용 장면이 핵심. 개념 설명 30% + 실제 화면 70%
- "이거 실험 기능이라 설정 켜야 해요" → 진입장벽 낮추는 튜토리얼 필수
추천 영상 구성¶
[도입] "AI 하나한테 시키는 시대는 끝났습니다"
→ AI 팀을 만들 수 있다는 훅
[개념] 30초~1분 비유 설명 (회사 팀 비유)
→ "보조 AI"와 "AI 팀"의 차이 한 장면으로
[시연] 실제로 팀 만들어서 일 시키는 전 과정
→ 자연어로 지시 → 팀원 생성 → 동시 작업 → 토론 → 결과
[비교] 혼자 시켰을 때 vs 팀으로 시켰을 때 결과물 차이
[정리] 언제 쓰면 좋고, 비용은 얼마나 드는지
→ "매일 쓰는 게 아니라, 중요한 기획할 때 꺼내 쓰는 비장의 무기"
참고¶
- 공식 문서
- Sub-agent 문서
- Agent 설계 실전 가이드 — 함정, 체크리스트, 사고 일지
- Agent Team은 가장 강력하지만 가장 비용이 큰 도구
- "진짜 다른 관점이 필요할 때"만 사용하는 것이 효율적
- 주간 리포트 같은 독립 조사는 Sub-agent가 가성비 최고