GPT Researcher MCP Server
通过探索和验证大量可信来源,增强LLM应用程序的深度自主网络研究能力,提供比标准搜索工具更高质量的信息。
README
<div align="center" id="top">
<img src="https://github.com/assafelovic/gpt-researcher/assets/13554167/20af8286-b386-44a5-9a83-3be1365139c3" alt="Logo" width="80">
🔍 GPT Researcher MCP 服务器
</div>
为什么选择 GPT Researcher MCP?
虽然 LLM 应用可以通过 MCP 访问网络搜索工具,但 GPT Researcher MCP 提供深入的研究结果。 标准搜索工具返回原始结果,需要手动过滤,通常包含不相关的来源并浪费上下文窗口空间。
GPT Researcher 自动探索和验证大量来源,仅关注相关、可信和最新的信息。虽然比标准搜索稍慢(约 30 秒等待),但它提供:
- ✨ 更高质量的信息
- 📊 优化的上下文使用
- 🔎 全面的结果
- 🧠 更好的 LLM 推理
💻 Claude 桌面演示
https://github.com/user-attachments/assets/ef97eea5-a409-42b9-8f6d-b82ab16c52a8
资源
research_resource: 通过研究获取与给定任务相关的网络资源。
主要工具
deep_research: 对某个主题进行深入的网络研究,找到最可靠和相关的信息quick_search: 执行快速网络搜索,优化速度而非质量,返回带有摘要的搜索结果。支持任何 GPTR 支持的网络检索器,例如 Tavily、Bing、Google 等... 了解更多此处write_report: 根据研究结果生成报告get_research_sources: 获取研究中使用的来源get_research_context: 获取研究的完整上下文
提示词
research_query: 创建研究查询提示词
前提条件
在运行 MCP 服务器之前,请确保您已具备:
- 安装了 Python 3.10 或更高版本
- 您计划使用的服务的 API 密钥:
⚙️ 安装
- 克隆 GPT Researcher 仓库:
git clone https://github.com/assafelovic/gpt-researcher.git
cd gpt-researcher
- 安装 gptr-mcp 依赖项:
cd gptr-mcp
pip install -r requirements.txt
- 设置您的环境变量:
- 复制
.env.example文件以创建一个名为.env的新文件:
cp .env.example .env- 编辑
.env文件并添加您的 API 密钥并配置其他设置:
OPENAI_API_KEY=your_openai_api_key TAVILY_API_KEY=your_tavily_api_key - 复制
您还可以为您的 GPT Researcher 配置添加任何其他环境变量。
🚀 运行 MCP 服务器
您可以通过两种方式启动 MCP 服务器:
方法 1:直接使用 Python
python server.py
方法 2:使用 MCP CLI(如果已安装)
mcp run server.py
服务器运行后,您将看到输出,指示服务器已准备好接受连接。
与 Claude 集成
您可以使用以下方式将您的 MCP 服务器与 Claude 集成:
Claude 桌面集成 - 用于在 Mac 上与 Claude 桌面应用程序一起使用
有关详细说明,请点击上面的链接。
💻 Claude 桌面集成
要将您本地运行的 MCP 服务器与 Claude for Mac 集成,您需要:
- 确保 MCP 服务器已安装并正在运行
- 配置 Claude 桌面:
- 找到或创建配置文件,位于
~/Library/Application Support/Claude/claude_desktop_config.json - 将您的本地 GPT Researcher MCP 服务器添加到配置中
- 重新启动 Claude 以应用配置
- 找到或创建配置文件,位于
有关完整的逐步说明,请参阅 Claude 桌面集成指南。
📝 与 Claude 的使用示例
用户:我正在考虑投资 NVIDIA。你能研究一下公司目前的状况、最近的股票表现、最新的产品公告和分析师的意见吗?
Claude:我将帮助您研究 NVIDIA 以进行投资。这将需要一些时间,因为我将进行全面的研究,以找到有关其股票表现、最新发展和专家分析的最新信息。
[Claude 使用 conduct_research 工具 - 这需要 30-40 秒]
Claude:根据我的研究,这是对 NVIDIA 当前状态的全面分析:
## NVIDIA (NVDA) 当前状态
### 最近的股票表现
- 当前价格:$942.89(截至我的研究)
- 年初至今表现:+90.4%
- 52 周范围:$460.30 - $974.00
- 市值:约 2.32 万亿美元
### 最近的主要发展
1. **Blackwell AI 平台**:在 GTC 2024 上,NVIDIA 推出了 Blackwell 架构,这是他们的下一代 AI 芯片平台,承诺比 Hopper 提高 4 倍的性能。主要的云提供商(AWS、Google、Microsoft)已经承诺集成 Blackwell。
2. **2025 财年第一季度收益(2024 年 5 月)**:
- 收入:260 亿美元(同比增长 262%)
- 数据中心收入:226 亿美元(同比增长 427%)
- 毛利率:78.4%
- 宣布 10 比 1 的股票分割,于 2024 年 6 月 7 日生效
3. **供应链扩张**:增加对台积电制造能力的投资,以解决对其高需求 AI GPU 的持续芯片短缺问题。
### 分析师共识
- 强烈买入共识,37 位分析师评为“买入”,5 位评为“持有”,0 位评为“卖出”
- 平均目标价:1,042 美元(分割后调整:104.20 美元)
- 主要看涨论点:持续的 AI 基础设施支出和 NVIDIA 在 AI 芯片中的主导地位
- 主要看跌担忧:估值、来自 AMD、英特尔和科技巨头定制芯片的潜在竞争
### 行业地位
- 在 AI GPU 市场中占据主导地位,估计市场份额为 80-90%
- 通过 CUDA 软件平台和行业合作伙伴关系扩展生态系统
- 通过 DGX Cloud、AI 软件平台和汽车解决方案实现芯片以外的多元化
🔧 故障排除
如果在运行 MCP 服务器时遇到问题:
- 确保您的 API 密钥在
.env文件中设置正确 - 检查您是否正在使用 Python 3.10 或更高版本
- 确保所有依赖项都已正确安装
- 检查服务器日志中的错误消息
👣 后续步骤
- 探索 MCP 协议文档 以更好地了解如何与 Claude 集成
- 了解 GPT Researcher 的核心功能 以增强您的研究能力
- 查看 高级用法 指南以获取更多配置选项
📄 许可证
本项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。
📞 支持 / 联系方式
- 社区 Discord
- 电子邮件:assaf.elovic@gmail.com
<p align="right"> <a href="#top">⬆️ 返回顶部</a> </p>
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。