MCP JinaAI Search Server
实现了与 Jina.ai 的搜索 API 的高效网页搜索集成,提供经过 LLM 优化的清晰内容检索,并支持各种内容类型和可配置的缓存。
Tools
search
Search the web and get clean, LLM-friendly content using Jina.ai Reader. Returns top 5 results with URLs and clean content.
README
mcp-jinaai-search
⚠️ 注意
此仓库已停止维护。
此工具的功能现在已包含在 mcp-omnisearch 中,它将多个 MCP 工具整合到一个统一的包中。
请使用 mcp-omnisearch 代替。
一个模型上下文协议 (MCP) 服务器,用于集成 Jina.ai 的搜索 API 与 LLM。此服务器提供高效且全面的网络搜索功能,经过优化,可从网络检索干净、LLM 友好的内容。
<a href="https://glama.ai/mcp/servers/u6603w196t"> <img width="380" height="200" src="https://glama.ai/mcp/servers/u6603w196t/badge" /> </a>
特性
- 🔍 通过 Jina.ai 搜索 API 进行高级网络搜索
- 🚀 快速高效的内容检索
- 📄 提取具有保留结构的干净文本
- 🧠 针对 LLM 优化的内容
- 🌐 支持各种内容类型,包括文档
- 🏗️ 构建在模型上下文协议之上
- 🔄 可配置的缓存以提高性能
- 🖼️ 可选的图像和链接收集
- 🌍 通过浏览器区域设置支持本地化
- 🎯 响应大小的 Token 预算控制
配置
此服务器需要通过您的 MCP 客户端进行配置。以下是不同环境的示例:
Cline 配置
将其添加到您的 Cline MCP 设置中:
{
"mcpServers": {
"jinaai-search": {
"command": "node",
"args": ["-y", "mcp-jinaai-search"],
"env": {
"JINAAI_API_KEY": "your-jinaai-api-key"
}
}
}
}
带有 WSL 配置的 Claude Desktop
对于 WSL 环境,将其添加到您的 Claude Desktop 配置中:
{
"mcpServers": {
"jinaai-search": {
"command": "wsl.exe",
"args": [
"bash",
"-c",
"JINAAI_API_KEY=your-jinaai-api-key npx mcp-jinaai-search"
]
}
}
}
环境变量
服务器需要以下环境变量:
JINAAI_API_KEY
: 您的 Jina.ai API 密钥(必需)
API
服务器实现了一个具有可配置参数的 MCP 工具:
search
使用 Jina.ai Reader 搜索网络并获取干净、LLM 友好的内容。返回前 5 个结果,包含 URL 和干净的内容。
参数:
query
(string, required): 搜索查询format
(string, optional): 响应格式 ("json" 或 "text")。默认为 "text"no_cache
(boolean, optional): 绕过缓存以获取最新结果。默认为 falsetoken_budget
(number, optional): 此请求的最大 Token 数browser_locale
(string, optional): 用于渲染内容的浏览器区域设置stream
(boolean, optional): 为大型页面启用流模式。默认为 falsegather_links
(boolean, optional): 在响应末尾收集所有链接。默认为 falsegather_images
(boolean, optional): 在响应末尾收集所有图像。默认为 falseimage_caption
(boolean, optional): 在内容中为图像添加标题。默认为 falseenable_iframe
(boolean, optional): 从 iframe 中提取内容。默认为 falseenable_shadow_dom
(boolean, optional): 从 shadow DOM 中提取内容。默认为 falseresolve_redirects
(boolean, optional): 跟踪重定向链到最终 URL。默认为 true
开发
设置
- 克隆存储库
- 安装依赖项:
pnpm install
- 构建项目:
pnpm run build
- 在开发模式下运行:
pnpm run dev
发布
- 创建一个 changeset:
pnpm changeset
- 版本化包:
pnpm version
- 构建和发布:
pnpm release
贡献
欢迎贡献!请随时提交 Pull Request。
许可证
MIT 许可证 - 有关详细信息,请参见 LICENSE 文件。
致谢
- 构建在 模型上下文协议 之上
- 由 Jina.ai 搜索 API 提供支持
推荐服务器

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。
BigQuery MCP Server
这是一个服务器,可以让你的大型语言模型(LLM,比如Claude)直接与你的BigQuery数据对话!可以把它想象成一个友好的翻译器,它位于你的AI助手和数据库之间,确保它们可以安全高效地进行交流。
mcp-perplexity
Perplexity API 的 MCP 服务器。