Langgraph Deep Search MCP Server
An MCP server that utilizes LangGraph and Google Gemini to conduct comprehensive research through multi-iteration deep searches and quick results. It provides high-quality analysis with automated citations and grounding metadata for thorough investigations.
README
Langgraph Deep Search MCP Server
Google Gemini公式実装をベースにしたLangGraphのAIエージェントを使用して包括的な調査を実行します。
🎯 実装について
Langgraph Implementation
- 完全にGoogleの公式実装をベース
- Gemini 2.5 Flashのネイティブ検索機能使用
- LangGraphによる状態管理とワークフロー
- grounding metadataによる自動引用
🌟 機能
- Deep Search: 複数回の検索イテレーションによる包括的な調査
- Quick Search: 単発検索による迅速な結果取得
- Gemini Native Search: Gemini 2.5 Flashのネイティブ検索機能を使用した高品質な検索
- AI Analysis: Gemini 2.5 Proを使用した結果の分析と統合
- MCP Integration: Model Context Protocolによる外部アプリケーションとの統合
- 自動引用: grounding metadataによる自動的なソース情報取得
🚀 クイックスタート
方法1: uvx使用 (推奨)
# 1. プロジェクトのクローン
git clone https://github.com/RyotaOzawa0/langgraph-deepsearch-mcp.git
cd deep-search-mcp-server
# 2. 環境変数設定
export GEMINI_API_KEY=your_gemini_api_key_here
# 3. MCPサーバー起動
uvx --from . langgraph-deep-search
方法2: 手動セットアップ
# 1. プロジェクトのクローン
git clone <repository-url>
cd deep-search-mcp-server
# 2. 依存関係インストール
uv sync
# 3. 環境変数設定
export GEMINI_API_KEY=your_gemini_api_key_here
# 4. MCPサーバー起動
python gemini_server.py
📋 詳細インストール手順
前提条件
- Python 3.10以上
- uv (推奨) または pip
手動インストール
# 1. リポジトリをクローン
git clone <repository-url>
cd deep-search-mcp-server
# 2. uvでプロジェクトセットアップ
uv sync
uv pip install -e .
# 3. 環境変数設定
cp .env.example .env
# .envファイルを編集してAPIキーを設定
# 4. テスト実行
uv run python gemini_server.py
API キー
- GEMINI_API_KEY: Gemini API (必須) - Google AI Studioから取得
🛠 使用方法
自然言語入力例
MCPサーバーがClaude DesktopなどのMCPホストに接続されると、以下のような自然言語でリサーチを依頼できます:
包括的な調査 (deep_search)
「React状態管理ライブラリを包括的に比較調査して」
「Terraformベストプラクティスを深く調べて」
迅速な検索 (quick_search)
「Claude Codeの使用感・評判を速攻で調査して」
「Devinの最新アプデをサクッと検索して」
サーバー状態確認
「検索ツールの状態を確認してください」
「MCPサーバーの設定情報を教えてください」
MCP Tools (開発者向け)
deep_search
包括的な調査を実行します。
パラメータ:
query(str): 調査したいトピックmax_iterations(int, default=3): 最大イテレーション回数max_results_per_query(int, default=5): クエリごとの最大結果数language(str, default="en"): 検索言語
quick_search
単発検索による迅速な結果取得。
get_search_tools
利用可能な検索ツールの状態を確認。
MCP Resources
search-config
サーバーの設定情報と利用可能なツールの状態を取得。
主要コンポーネント
- GoogleSearchManager: Google検索の統合管理
- DeepResearchGraph: LangGraphによる調査ワークフロー
- FastMCP Server: MCPプロトコルでのツール公開
🔧 Claude Desktop連携
uvxを使用した設定
claude_desktop_config.jsonに以下を追加:
{
"mcpServers": {
"langgraph-deep-search": {
"command": "uvx",
"args": ["--from", "/path/to/deep-search-mcp-server", "langgraph-deep-search"],
"env": {
"GEMINI_API_KEY": "your_gemini_api_key"
}
}
}
}
uv run使用での設定
{
"mcpServers": {
"langgraph-deep-search": {
"command": "uv",
"args": ["run", "--directory", "/path/to/deep-search-mcp-server", "python", "gemini_server.py"],
"env": {
"GEMINI_API_KEY": "your_gemini_api_key"
}
}
}
}
直接実行での設定
{
"mcpServers": {
"langgraph-deep-search": {
"command": "python",
"args": ["/path/to/deep-search-mcp-server/gemini_server.py"],
"env": {
"GEMINI_API_KEY": "your_gemini_api_key"
}
}
}
}
開発モード
# MCP Inspector付きで開発
mcp dev gemini_server.py
🔍 トラブルシューティング
よくあるエラー
-
ModuleNotFoundError: No module named 'mcp':
- 解決策:
uv syncで依存関係をインストール - または:
uv run python gemini_server.pyを使用
- 解決策:
-
Agent not initialized:
- 解決策:
GEMINI_API_KEY環境変数を設定
- 解決策:
-
Process exited with code 1:
- 解決策: 絶対パスと
uv runを使用 - WSLの場合:
uv run python gemini_server.pyを含むコマンドを使用
- 解決策: 絶対パスと
-
Import errors:
- 解決策:
uv syncで依存関係をインストール
- 解決策:
ログ確認
サーバー実行時にコンソールに出力されるログで状態を確認できます。
デバッグモード
# 詳細ログ付きで実行
mcp dev gemini_server.py
📄 ライセンス
MIT License
🤝 貢献
- Forkしてfeatureブランチを作成
- 変更をcommit
- Pull Requestを作成
📚 参考
- Model Context Protocol
- MCP Python SDK - 公式Python SDK
- LangGraph
- Gemini Fullstack LangGraph Quickstart
- MCP Server Development Guide
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。