MCP JinaAI Reader Server

MCP JinaAI Reader Server

集成了 Jina.ai 的 Reader API 与 LLM,以实现高效且结构化的网页内容提取,并针对文档和网页内容分析进行了优化。

内容获取
AI集成系统
访问服务器

Tools

read_url

Convert any URL to LLM-friendly text using Jina.ai Reader

README

mcp-jinaai-reader


⚠️ 注意

此仓库已不再维护。

此工具的功能现在已包含在 mcp-omnisearch 中,它将多个 MCP 工具整合到一个统一的包中。

请使用 mcp-omnisearch 代替。


一个模型上下文协议 (MCP) 服务器,用于将 Jina.ai 的 Reader API 与 LLM 集成。 此服务器提供高效且全面的 Web 内容提取功能,针对文档和 Web 内容分析进行了优化。

<a href="https://glama.ai/mcp/servers/a75afsx9cx"> <img width="380" height="200" src="https://glama.ai/mcp/servers/a75afsx9cx/badge" /> </a>

特性

  • 📚 通过 Jina.ai Reader API 进行高级 Web 内容提取
  • 🚀 快速高效的内容检索
  • 📄 完整文本提取,保留结构
  • 🔄 针对 LLM 优化的干净格式
  • 🌐 支持各种内容类型,包括文档
  • 🏗️ 构建于模型上下文协议之上

配置

此服务器需要通过您的 MCP 客户端进行配置。 以下是不同环境的示例:

Cline 配置

将其添加到您的 Cline MCP 设置中:

{
	"mcpServers": {
		"jinaai-reader": {
			"command": "node",
			"args": ["-y", "mcp-jinaai-reader"],
			"env": {
				"JINAAI_API_KEY": "your-jinaai-api-key"
			}
		}
	}
}

带有 WSL 配置的 Claude Desktop

对于 WSL 环境,将其添加到您的 Claude Desktop 配置中:

{
	"mcpServers": {
		"jinaai-reader": {
			"command": "wsl.exe",
			"args": [
				"bash",
				"-c",
				"JINAAI_API_KEY=your-jinaai-api-key npx mcp-jinaai-reader"
			]
		}
	}
}

环境变量

服务器需要以下环境变量:

  • JINAAI_API_KEY: 您的 Jina.ai API 密钥(必需)

API

服务器实现了一个具有可配置参数的 MCP 工具:

read_url

使用 Jina.ai Reader 将任何 URL 转换为 LLM 友好的文本。

参数:

  • url (string, required): 要处理的 URL
  • no_cache (boolean, optional): 绕过缓存以获取最新结果。 默认为 false
  • format (string, optional): 响应格式(“json”或“stream”)。 默认为“json”
  • timeout (number, optional): 等待网页加载的最长时间(秒)
  • target_selector (string, optional): CSS 选择器,用于关注特定元素
  • wait_for_selector (string, optional): CSS 选择器,用于等待特定元素
  • remove_selector (string, optional): CSS 选择器,用于排除特定元素
  • with_links_summary (boolean, optional): 在响应末尾收集所有链接
  • with_images_summary (boolean, optional): 在响应末尾收集所有图像
  • with_generated_alt (boolean, optional): 为缺少标题的图像添加替代文本
  • with_iframe (boolean, optional): 在响应中包含 iframe 内容

开发

设置

  1. 克隆存储库
  2. 安装依赖项:
npm install
  1. 构建项目:
npm run build
  1. 在开发模式下运行:
npm run dev

发布

  1. 更新 package.json 中的版本
  2. 构建项目:
npm run build
  1. 发布到 npm:
npm publish

贡献

欢迎贡献! 请随时提交 Pull Request。

许可证

MIT 许可证 - 有关详细信息,请参阅 LICENSE 文件。

鸣谢

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
mult-fetch-mcp-server

mult-fetch-mcp-server

一个多功能的、符合 MCP 规范的网页内容抓取工具,支持多种模式(浏览器/Node)、格式(HTML/JSON/Markdown/文本)和智能代理检测,并提供双语界面(英语/中文)。

精选
本地
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
MCP Atlassian

MCP Atlassian

适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

精选
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选