MCP YouTube Intelligence

MCP YouTube Intelligence

An MCP server for intelligent YouTube video analysis that provides token-optimized summaries, sentiment analysis, and entity extraction from transcripts. It enables AI assistants to perform video reporting, channel monitoring, and comprehensive YouTube searches through structured data tools.

Category
访问服务器

README

Python License MCP PyPI

🌐 English | 한국어

MCP YouTube Intelligence

YouTube 영상을 지능적으로 분석하는 MCP 서버 + CLI

MCP (Model Context Protocol)는 Claude, Cursor 같은 AI 도구가 외부 서비스를 사용할 수 있게 해주는 표준 프로토콜입니다. 이 서버를 연결하면 "이 영상 요약해줘" 한마디로 분석이 완료됩니다.

🎯 핵심 가치: 원본 자막(2,000~30,000 토큰)을 서버에서 처리하여 LLM에는 ~200–500 토큰만 전달합니다.


🤔 왜 이 서버인가?

대부분의 YouTube MCP 서버는 원본 자막을 그대로 LLM에 던집니다.

기능 기존 MCP 서버 MCP YouTube Intelligence
자막 추출
서버사이드 요약 (토큰 최적화)
구조화된 리포트 (요약+토픽+엔티티+댓글)
채널 모니터링 (RSS)
댓글 감성 분석
토픽 세그멘테이션
엔티티 추출 (한/영 200+개)
자막/YouTube 검색
배치 처리
SQLite/PostgreSQL 캐시

🚀 빠른 시작

1. 설치

pip install mcp-youtube-intelligence
pip install yt-dlp  # 자막 추출에 필요

💡 LLM 없이도 기본 요약(핵심 문장 추출)은 동작합니다. 고품질 요약을 원하면 아래 LLM 설정을 참고하세요.

2. 첫 번째 명령어 실행

# 리포트 생성 — 요약, 토픽, 엔티티, 댓글을 한번에 분석 (LLM 연동필요)
mcp-yt report "https://www.youtube.com/watch?v=LV6Juz0xcrY"

# 자막 요약만
mcp-yt transcript "https://www.youtube.com/watch?v=LV6Juz0xcrY"

# 영상 ID만 써도 됩니다
mcp-yt report LV6Juz0xcrY

⚠️ zsh 사용자: URL에 ?가 있으므로 반드시 따옴표로 감싸세요.

📋 리포트 출력 예시

mcp-yt report "https://www.youtube.com/watch?v=LV6Juz0xcrY" 실행 결과 (extractive 요약):

# 📹 Video Analysis Report: OpenClaw Use Cases that are Actually Helpful! (ClawdBot)

> Channel: Duncan Rogoff | AI Automation | Duration: 16:29 | Language: en_ytdlp

## 1. Summary

OpenClaw is the most powerful AI agent framework in the world right now and
it's about to replace your entire workflow. I spent over $200 in the last
48 hours stress testing the system so you don't have to. It defines who it
is, how it behaves, and crucial behavioral boundaries. If you think open
claw is cool, just check out this video up here of 63 insane use cases
that other people are doing.

## 2. Key Topics

| # | Topic | Keywords | Timespan |
|---|-------|----------|----------|
| 1 | framework, world, right | framework, world, right | 0:00~0:05 |
| 2 | like, really, there | like, really, there | 0:05~2:23 |
| 3 | like, max, using | like, max, using | 2:23~4:22 |
| 4 | going, like, something | going, like, something | 4:22~5:03 |
| 5 | like, agents, basically | like, agents, basically | 5:03~6:04 |
| ... | ... | ... | ... |
| 15 | think, open, claw | think, open, claw | 16:24~16:29 |

## 4. Keywords & Entities

- **Technology**: GitHub, LLM, GPT
- **Company**: Anthropic, Apple

## 5. Viewer Reactions

- Total comments: 20
- Sentiment: Positive 45% / Negative 0% / Neutral 55%
- Top opinions:
  - **@geetee2583** (positive, 👍8): Great info. Just need your inset video out of the way...
  - **@bdog4026** (positive, 👍3): This tool is wild! Definitely the most in depth explanation...
  - **@magalyvilela4917** (neutral, 👍3): Came to this video wondering it gonna teach me how to set up...

📖 CLI 전체 명령어

📊 리포트 (핵심 기능)

⚠️ **리포트의 요약 섹션은 LLM 연동이 필수입니다. Ollama 빠른 설정 (무료, 3분이면 끝):

# 1. Ollama 설치: https://ollama.ai
# 2. 모델 다운로드
ollama pull qwen2.5:7b

# 3. 환경변수 설정
export MYI_LLM_PROVIDER=ollama
export MYI_OLLAMA_MODEL=qwen2.5:7b

# 원격 서버라면 호스트도 지정
export MYI_OLLAMA_BASE_URL=http://your-server:11434
mcp-yt report "https://youtube.com/watch?v=VIDEO_ID"
mcp-yt report VIDEO_ID --provider ollama     # LLM 프로바이더 지정
mcp-yt report VIDEO_ID --no-comments         # 댓글 제외
mcp-yt report VIDEO_ID -o report.md          # 파일 저장

🎯 자막 추출 + 요약

mcp-yt transcript VIDEO_ID                   # 요약 (~200–500 토큰)
mcp-yt transcript VIDEO_ID --mode full       # 전체 자막
mcp-yt transcript VIDEO_ID --mode chunks     # 청크 분할
mcp-yt --json transcript VIDEO_ID            # JSON 출력

기타

mcp-yt video VIDEO_ID                        # 메타데이터
mcp-yt comments VIDEO_ID --max 20            # 댓글 (감성 분석 포함)
mcp-yt entities VIDEO_ID                     # 엔티티 추출
mcp-yt segments VIDEO_ID                     # 토픽 세그멘테이션
mcp-yt search "키워드" --max 5               # YouTube 검색
mcp-yt monitor subscribe @채널핸들           # 채널 모니터링
mcp-yt playlist PLAYLIST_ID                  # 플레이리스트
mcp-yt batch ID1 ID2 ID3                     # 배치 처리
mcp-yt search-transcripts "키워드"           # 저장된 자막 검색

💡 모든 명령어에 --json 플래그를 추가하면 JSON 출력됩니다.


🔌 MCP 서버 연결

MCP 서버는 stdio 프로토콜로 통신합니다.

Claude Desktop / Cursor / OpenCode

설정 파일에 추가 (claude_desktop_config.json, .cursor/mcp.json, mcp.json):

{
  "mcpServers": {
    "youtube": {
      "command": "uvx",
      "args": ["mcp-youtube-intelligence"],
      "env": {
        "MYI_LLM_PROVIDER": "ollama",
        "MYI_OLLAMA_MODEL": "qwen2.5:7b"
      }
    }
  }
}

💡 uvxuv 패키지 매니저의 실행 명령어입니다. pip install uv로 설치하세요.

클라우드 LLM을 쓰려면 env에 API 키를 추가하면 됩니다: "OPENAI_API_KEY": "sk-..."

Claude Code

claude mcp add youtube -- uvx mcp-youtube-intelligence

MCP Tools (9개)

Tool 설명 예상 토큰
get_video 메타데이터 + 요약 ~200–500
get_transcript 자막 (summary/full/chunks) ~200–500
get_comments 댓글 + 감성 분석 ~200–500
monitor_channel RSS 채널 모니터링 ~100–300
search_transcripts 저장된 자막 검색 ~100–400
extract_entities 엔티티 추출 ~150–300
segment_topics 토픽 분할 ~100–250
search_youtube YouTube 검색 ~200
get_playlist 플레이리스트 분석 ~200–500

<details> <summary>📖 Tool 파라미터 상세</summary>

get_video

파라미터 타입 필수 설명
video_id string YouTube 영상 ID

get_transcript

파라미터 타입 필수 기본값 설명
video_id string YouTube 영상 ID
mode string "summary" summary · full · chunks

get_comments

파라미터 타입 필수 기본값 설명
video_id string YouTube 영상 ID
top_n int 10 반환할 댓글 수
summarize bool false 요약 뷰

monitor_channel

파라미터 타입 필수 기본값 설명
channel_ref string 채널 URL/@핸들/ID
action string "check" add·check·list·remove

search_transcripts

파라미터 타입 필수 기본값 설명
query string 검색 키워드
limit int 10 최대 결과 수

extract_entities / segment_topics

파라미터 타입 필수 설명
video_id string YouTube 영상 ID

search_youtube

파라미터 타입 필수 기본값 설명
query string 검색 키워드
max_results int 10 최대 결과 수
order string "relevance" relevance·date·rating·viewCount

get_playlist

파라미터 타입 필수 기본값 설명
playlist_id string 플레이리스트 ID
max_videos int 50 최대 영상 수

</details>


⚙️ 설정

LLM 프로바이더 설정

LLM 없이도 기본 요약(핵심 문장 추출)은 동작합니다. 고품질 요약을 원하면:

Ollama (추천 — 무료, 오프라인)

# 1. Ollama 설치: https://ollama.ai
# 2. 모델 다운로드
ollama pull qwen2.5:7b

# 3. 환경변수 설정
export MYI_LLM_PROVIDER=ollama
export MYI_OLLAMA_MODEL=qwen2.5:7b

# 4. (선택) 원격 Ollama 서버 사용 시
export MYI_OLLAMA_BASE_URL=http://your-server:11434

클라우드 LLM

# API 키만 설정하면 자동 감지 (MYI_LLM_PROVIDER=auto)
export OPENAI_API_KEY=sk-...          # OpenAI
export ANTHROPIC_API_KEY=sk-ant-...   # Anthropic
export GOOGLE_API_KEY=AIza...         # Google

# 특정 프로바이더 지정
export MYI_LLM_PROVIDER=anthropic

클라우드 LLM 패키지: pip install "mcp-youtube-intelligence[llm]" (OpenAI) / [anthropic-llm] / [google-llm] / [all-llm]

추천 Ollama 모델

목적 모델 크기 한국어 영어 품질
다국어 (추천) qwen2.5:7b 4.4GB ⭐⭐⭐⭐
영어 중심 llama3.1:8b 4.7GB ⚠️ ⭐⭐⭐⭐
한국어 특화 gemma2:9b 5.4GB ⭐⭐⭐⭐
경량 qwen2.5:3b 1.9GB ⭐⭐⭐
다국어 특화 aya-expanse:8b 4.8GB ⭐⭐⭐

⏱️ 실측 벤치마크

RTX 3070 8GB · Ollama · 한국어 자막 ~2,900자 (5분 19초 영상) load_duration 제외, 순수 생성 시간 기준

모델 Prompt 처리 생성 시간 속도 출력 품질
Extractive - 즉시 - 379자 ⭐⭐
qwen2.5:1.5b 7.8s 4.7s 30.4 tok/s 232자 ⭐⭐
qwen2.5:7b 34.5s 18.8s 7.3 tok/s 766자 ⭐⭐⭐⭐
aya-expanse:8b 29.5s 34.5s 6.2 tok/s 405자 ⭐⭐⭐

⚠️ 첫 실행 시 모델 로드에 15~60초 추가. keep_alive로 메모리 유지하면 이후 로드 없음.

<details> <summary>📖 전체 환경변수 목록</summary>

환경변수 기본값 설명
MYI_DATA_DIR ~/.mcp-youtube-intelligence 데이터 디렉토리
MYI_STORAGE sqlite sqlite · postgres
MYI_SQLITE_PATH {DATA_DIR}/data.db SQLite 경로
MYI_POSTGRES_DSN PostgreSQL DSN
MYI_YT_DLP yt-dlp yt-dlp 경로
MYI_MAX_COMMENTS 20 최대 댓글 수
MYI_LLM_PROVIDER auto auto·openai·anthropic·google·ollama·vllm·lmstudio
OPENAI_API_KEY OpenAI 키
MYI_OPENAI_MODEL gpt-4o-mini OpenAI 모델
ANTHROPIC_API_KEY Anthropic 키
MYI_ANTHROPIC_MODEL claude-sonnet-4-20250514 Anthropic 모델
GOOGLE_API_KEY Google 키
MYI_GOOGLE_MODEL gemini-2.0-flash Google 모델
MYI_OLLAMA_BASE_URL http://localhost:11434 Ollama URL
MYI_OLLAMA_MODEL llama3.1:8b Ollama 모델
MYI_VLLM_BASE_URL http://localhost:8000 vLLM URL
MYI_VLLM_MODEL vLLM 모델
MYI_LMSTUDIO_BASE_URL http://localhost:1234 LM Studio URL
MYI_LMSTUDIO_MODEL LM Studio 모델

</details>


🔍 트러블슈팅

문제 해결
zsh: no matches found URL을 따옴표로 감싸기: mcp-yt transcript "https://..."
yt-dlp not found pip install yt-dlp 또는 export MYI_YT_DLP=/path/to/yt-dlp
자막 없는 영상 mcp-yt video로 메타데이터만 가져오기
SQLite database locked 서버 인스턴스 하나만 실행 중인지 확인
LLM 요약 실패 자동으로 extractive 폴백됨. API 키 확인.

🤝 Contributing

git clone https://github.com/JangHyuckYun/mcp-youtube-intelligence.git
cd mcp-youtube-intelligence
pip install -e ".[dev]"
pytest tests/ -v

📄 라이선스

Apache 2.0 — LICENSE

📝 변경 이력

날짜 버전 주요 변경
2025-02-18 v0.1.0 초기 릴리스 — 9개 MCP 도구, CLI, SQLite
2025-02-18 v0.1.1 Multi-LLM (OpenAI/Anthropic/Google), Apache 2.0
2025-02-18 v0.1.2 Local LLM (Ollama/vLLM/LM Studio), yt-dlp 자막 개선, 영어 기본 출력
2025-02-18 v0.1.3 Local LLM (Ollama/vLLM/LM Studio), yt-dlp 자막 개선, 영어 기본 출력

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选