MCP JinaAI Reader Server
集成了 Jina.ai 的 Reader API 与 LLM,以实现高效且结构化的网页内容提取,并针对文档和网页内容分析进行了优化。
Tools
read_url
Convert any URL to LLM-friendly text using Jina.ai Reader
README
mcp-jinaai-reader
⚠️ 注意
此仓库已不再维护。
此工具的功能现在已包含在 mcp-omnisearch 中,它将多个 MCP 工具整合到一个统一的包中。
请使用 mcp-omnisearch 代替。
一个模型上下文协议 (MCP) 服务器,用于将 Jina.ai 的 Reader API 与 LLM 集成。 此服务器提供高效且全面的 Web 内容提取功能,针对文档和 Web 内容分析进行了优化。
<a href="https://glama.ai/mcp/servers/a75afsx9cx"> <img width="380" height="200" src="https://glama.ai/mcp/servers/a75afsx9cx/badge" /> </a>
特性
- 📚 通过 Jina.ai Reader API 进行高级 Web 内容提取
- 🚀 快速高效的内容检索
- 📄 完整文本提取,保留结构
- 🔄 针对 LLM 优化的干净格式
- 🌐 支持各种内容类型,包括文档
- 🏗️ 构建于模型上下文协议之上
配置
此服务器需要通过您的 MCP 客户端进行配置。 以下是不同环境的示例:
Cline 配置
将其添加到您的 Cline MCP 设置中:
{
"mcpServers": {
"jinaai-reader": {
"command": "node",
"args": ["-y", "mcp-jinaai-reader"],
"env": {
"JINAAI_API_KEY": "your-jinaai-api-key"
}
}
}
}
带有 WSL 配置的 Claude Desktop
对于 WSL 环境,将其添加到您的 Claude Desktop 配置中:
{
"mcpServers": {
"jinaai-reader": {
"command": "wsl.exe",
"args": [
"bash",
"-c",
"JINAAI_API_KEY=your-jinaai-api-key npx mcp-jinaai-reader"
]
}
}
}
环境变量
服务器需要以下环境变量:
JINAAI_API_KEY
: 您的 Jina.ai API 密钥(必需)
API
服务器实现了一个具有可配置参数的 MCP 工具:
read_url
使用 Jina.ai Reader 将任何 URL 转换为 LLM 友好的文本。
参数:
url
(string, required): 要处理的 URLno_cache
(boolean, optional): 绕过缓存以获取最新结果。 默认为 falseformat
(string, optional): 响应格式(“json”或“stream”)。 默认为“json”timeout
(number, optional): 等待网页加载的最长时间(秒)target_selector
(string, optional): CSS 选择器,用于关注特定元素wait_for_selector
(string, optional): CSS 选择器,用于等待特定元素remove_selector
(string, optional): CSS 选择器,用于排除特定元素with_links_summary
(boolean, optional): 在响应末尾收集所有链接with_images_summary
(boolean, optional): 在响应末尾收集所有图像with_generated_alt
(boolean, optional): 为缺少标题的图像添加替代文本with_iframe
(boolean, optional): 在响应中包含 iframe 内容
开发
设置
- 克隆存储库
- 安装依赖项:
npm install
- 构建项目:
npm run build
- 在开发模式下运行:
npm run dev
发布
- 更新 package.json 中的版本
- 构建项目:
npm run build
- 发布到 npm:
npm publish
贡献
欢迎贡献! 请随时提交 Pull Request。
许可证
MIT 许可证 - 有关详细信息,请参阅 LICENSE 文件。
鸣谢
- 构建于 模型上下文协议 之上
- 由 Jina.ai Reader API 提供支持
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
mult-fetch-mcp-server
一个多功能的、符合 MCP 规范的网页内容抓取工具,支持多种模式(浏览器/Node)、格式(HTML/JSON/Markdown/文本)和智能代理检测,并提供双语界面(英语/中文)。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。