
Baidu Search MCP Server
好的,我明白了。您需要我将以下描述翻译成中文: "Provides web search capabilities through Baidu with content fetching and parsing features, allowing LLMs to search the web and extract webpage content." 翻译如下: **“提供通过百度进行网页搜索的能力,并具备内容抓取和解析功能,使大型语言模型能够搜索网络并提取网页内容。”**
Tools
search
Search Baidu and return formatted results. Args: query: The search query string max_results: Maximum number of results to return (default: 6) deep_mode: Deep search the web content (default: False) ctx: MCP context for logging
README
百度搜索 MCP 服务器
一个模型上下文协议 (MCP) 服务器,通过百度提供网络搜索功能,并具有内容获取和解析的附加功能。
<a href="https://glama.ai/mcp/servers/phcus2gcpn"> <img width="380" height="200" src="https://glama.ai/mcp/servers/phcus2gcpn/badge" alt="Baidu Server MCP server" /> </a>
功能
- 网络搜索: 使用高级速率限制和结果格式化搜索百度
- 内容获取: 检索和解析网页内容,具有智能文本提取功能
- 速率限制: 内置针对搜索和内容获取的速率限制保护
- 错误处理: 全面的错误处理和日志记录
- LLM 友好输出: 专门为大型语言模型消费而格式化的结果
安装
通过 Smithery 安装
要通过 Smithery 自动为 Claude Desktop 安装百度搜索服务器:
npx -y @smithery/cli install @Evilran/baidu-mcp-server --client claude
通过 uv
安装
使用 uv
直接从 PyPI 安装:
uv pip install baidu-mcp-server
用法
与 Claude Desktop 一起运行
- 下载 Claude Desktop
- 创建或编辑您的 Claude Desktop 配置:
- 在 macOS 上:
~/Library/Application Support/Claude/claude_desktop_config.json
- 在 Windows 上:
%APPDATA%\Claude\claude_desktop_config.json
- 在 macOS 上:
添加以下配置:
{
"mcpServers": {
"baidu-search": {
"command": "uvx",
"args": ["baidu-mcp-server"]
}
}
}
- 重启 Claude Desktop
开发
对于本地开发,您可以使用 MCP CLI:
# 使用 MCP Inspector 运行
mcp dev server.py
# 在本地安装以使用 Claude Desktop 进行测试
mcp install server.py
可用工具
1. 搜索工具
async def search(query: str, max_results: int = 10) -> str
在百度上执行网络搜索并返回格式化的结果。
参数:
query
: 搜索查询字符串max_results
: 要返回的最大结果数(默认值:10)
返回值: 包含搜索结果的格式化字符串,包括标题、URL 和摘要。
2. 内容获取工具
async def fetch_content(url: str) -> str
从网页获取和解析内容。
参数:
url
: 要从中获取内容的网页 URL
返回值: 来自网页的清理和格式化的文本内容。
功能详情
速率限制
- 搜索:每分钟限制为 30 个请求
- 内容获取:每分钟限制为 20 个请求
- 自动队列管理和等待时间
结果处理
- 删除广告和不相关的内容
- 清理百度重定向 URL
- 格式化结果以实现最佳 LLM 消费
- 适当截断长内容
错误处理
- 全面的错误捕获和报告
- 通过 MCP 上下文进行详细的日志记录
- 在速率限制或超时时优雅降级
贡献
欢迎提出问题和拉取请求! 一些潜在的改进领域:
- 附加搜索参数(地区、语言等)
- 增强的内容解析选项
- 频繁访问内容的缓存层
- 附加的速率限制策略
许可证
该项目已获得 MIT 许可证的许可。
致谢
此项目中的代码引用了以下存储库:
感谢这些存储库的作者和贡献者为开源社区所做的努力和贡献。
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。