Deep Research MCP Server

Deep Research MCP Server

通过整合人工智能代理、搜索引擎、网络爬虫和大型语言模型,实现迭代式的深度研究,从而高效地收集数据并生成全面的报告。

Category
访问服务器

README

Open Deep Research MCP Server

一个 AI 驱动的研究助手,可以对任何主题进行深入、迭代的研究。它结合了搜索引擎、网络爬取和 AI,以深入探索主题并生成全面的报告。可以作为模型上下文协议 (MCP) 工具或独立的 CLI 使用。查看 exampleout.md 以了解报告的示例。

快速开始

  1. 克隆并安装:
git clone https://github.com/Ozamatash/deep-research
cd deep-research
npm install
  1. .env.local 中设置环境:
# 复制示例环境文件
cp .env.example .env.local
  1. 构建:
# 构建服务器
npm run build
  1. 运行 CLI 版本:
npm run start "你的研究查询内容"
  1. 使用 Claude Desktop 测试 MCP 服务器: 按照服务器快速入门底部的指南将服务器添加到 Claude Desktop: https://modelcontextprotocol.io/quickstart/server

特性

  • 通过生成有针对性的搜索查询来进行深入、迭代的研究
  • 使用深度(深度)和广度(宽度)参数控制研究范围
  • 通过详细的评分 (0-1) 和推理来评估来源可靠性
  • 优先考虑高可靠性来源 (≥0.7) 并验证不太可靠的信息
  • 生成后续问题以更好地了解研究需求
  • 生成包含发现、来源和可靠性评估的详细 Markdown 报告
  • 可作为 AI 代理的模型上下文协议 (MCP) 工具
  • 目前 MCP 版本不询问后续问题

工作原理

flowchart TB
    subgraph Input
        Q[用户查询]
        B[广度参数]
        D[深度参数]
        FQ[反馈问题]
    end

    subgraph Research[深度研究]
        direction TB
        SQ[生成 SERP 查询]
        SR[搜索]
        RE[来源可靠性评估]
        PR[处理结果]
    end

    subgraph Results[研究输出]
        direction TB
        L((学习内容与
        可靠性评分))
        SM((来源元数据))
        ND((下一步方向:
        优先目标,
        新问题))
    end

    %% Main Flow
    Q & FQ --> CQ[组合查询]
    CQ & B & D --> SQ
    SQ --> SR
    SR --> RE
    RE --> PR

    %% Results Flow
    PR --> L
    PR --> SM
    PR --> ND

    %% Depth Decision and Recursion
    L & ND --> DP{depth > 0?}
    DP -->|Yes| SQ
    
    %% Final Output
    DP -->|No| MR[Markdown 报告]

    %% Styling
    classDef input fill:#7bed9f,stroke:#2ed573,color:black
    classDef process fill:#70a1ff,stroke:#1e90ff,color:black
    classDef output fill:#ff4757,stroke:#ff6b81,color:black
    classDef results fill:#a8e6cf,stroke:#3b7a57,color:black,width:150px,height:150px

    class Q,B,D,FQ input
    class SQ,SR,RE,PR process
    class MR output
    class L,SM,ND results

高级设置

使用本地 Firecrawl(免费选项)

您可以运行本地实例,而不是使用 Firecrawl API。您可以使用官方存储库或我的分支,它使用 searXNG 作为搜索后端,以避免使用 searchapi 密钥:

  1. 设置本地 Firecrawl:
git clone https://github.com/Ozamatash/localfirecrawl
cd localfirecrawl
# 按照 localfirecrawl README 中的设置
  1. 更新 .env.local
FIRECRAWL_BASE_URL="http://localhost:3002"

可选:可观测性

添加可观测性以使用 Langfuse 跟踪研究流程、查询和结果:

# 添加到 .env.local
LANGFUSE_PUBLIC_KEY="你的_langfuse_public_key"
LANGFUSE_SECRET_KEY="你的_langfuse_secret_key"

如果未提供 Langfuse 密钥,该应用程序可以正常工作,而无需可观测性。

许可证

MIT 许可证

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选