Academic Paper Search MCP Server
支持从多个来源实时搜索和检索学术论文信息,提供论文元数据、摘要以及在可用情况下的全文内容,并提供结构化数据响应,以便与支持工具/函数调用的 AI 模型集成。
Tools
search_papers
Search for papers across multiple sources. args: query: the search query limit: the maximum number of results to return (default 10)
fetch_paper_details
Get detailed information about a specific paper. Args: paper_id: Paper identifier (DOI for Crossref, paper ID for Semantic Scholar) source: Source database ("semantic_scholar" or "crossref")
search_by_topic
Search for papers by topic with optional date range. Note: Query length is limited to 300 characters. Longer queries will be automatically truncated. Args: topic (str): Search query (max 300 chars) year_start (int, optional): Start year for date range year_end (int, optional): End year for date range limit (int, optional): Maximum number of results to return (default 10) Returns: str: Formatted search results or error message
README
学术论文搜索 MCP 服务器
一个 模型上下文协议 (MCP) 服务器,能够从多个来源搜索和检索学术论文信息。
该服务器为 LLM 提供:
- 实时学术论文搜索功能
- 访问论文元数据和摘要
- 能够检索全文内容(如果可用)
- 遵循 MCP 规范的结构化数据响应
虽然主要设计用于与 Anthropic 的 Claude Desktop 客户端集成,但 MCP 规范允许与支持工具/函数调用功能的其他 AI 模型和客户端(例如 OpenAI 的 API)潜在兼容。
注意:此软件正在积极开发中。功能可能会发生变化。
<a href="https://glama.ai/mcp/servers/kzsu1zzz9j"><img width="380" height="200" src="https://glama.ai/mcp/servers/kzsu1zzz9j/badge" alt="Academic Paper Search Server MCP server" /></a>
功能
此服务器公开以下工具:
-
search_papers: 搜索多个来源的学术论文- 参数:
query(str): 搜索查询文本limit(int, 可选): 返回的最大结果数(默认值:10)
- 返回:包含论文详细信息的格式化字符串
- 参数:
-
fetch_paper_details: 检索特定论文的详细信息- 参数:
paper_id(str): 论文标识符(DOI 或 Semantic Scholar ID)source(str, 可选): 数据源("crossref" 或 "semantic_scholar",默认值:"crossref")
- 返回:包含全面论文元数据的格式化字符串,包括:
- 标题、作者、年份、DOI
- 会议/期刊名称、开放获取状态、PDF URL(仅 Semantic Scholar)
- 摘要和 TL;DR 摘要(如果可用)
- 参数:
-
search_by_topic: 按主题搜索论文,并可选择日期范围过滤器- 参数:
topic(str): 搜索查询文本(限制为 300 个字符)year_start(int, 可选): 日期范围的开始年份year_end(int, 可选): 日期范围的结束年份limit(int, 可选): 返回的最大结果数(默认值:10)
- 返回:包含搜索结果的格式化字符串,包括:
- 论文标题、作者和年份
- 摘要和 TL;DR 摘要(如果可用)
- 会议/期刊名称和开放获取信息
- 参数:
安装
通过 Smithery 安装
要通过 Smithery 为 Claude Desktop 自动安装 Academic Paper Search Server:
npx -y @smithery/cli install @afrise/academic-search-mcp-server --client claude
注意:此方法在很大程度上未经测试,因为他们的服务器似乎有问题。您可以按照独立说明进行操作,直到 Smithery 修复为止。
通过 uv 安装(手动安装):
- 安装依赖项:
uv add "mcp[cli]" httpx
- 在您的环境或
.env文件中设置所需的 API 密钥:
# 这些实际上尚未实现
SEMANTIC_SCHOLAR_API_KEY=your_key_here
CROSSREF_API_KEY=your_key_here # 可选但推荐
- 运行服务器:
uv run server.py
与 Claude Desktop 一起使用
- 将服务器添加到您的 Claude Desktop 配置 (
claude_desktop_config.json):
{
"mcpServers": {
"academic-search": {
"command": "uv",
"args": ["run ", "/path/to/server/server.py"],
"env": {
"SEMANTIC_SCHOLAR_API_KEY": "your_key_here",
"CROSSREF_API_KEY": "your_key_here"
}
}
}
}
- 重启 Claude Desktop
开发
此服务器使用以下技术构建:
- Python MCP SDK
- FastMCP 用于简化服务器实现
- httpx 用于 API 请求
API 来源
- Semantic Scholar API
- Crossref API
许可证
本项目根据 GNU Affero General Public License v3.0 (AGPL-3.0) 获得许可。此许可证确保:
- 您可以自由使用、修改和分发此软件
- 任何修改都必须在相同的许可证下开源
- 任何使用此软件提供网络服务的人都必须提供源代码
- 允许商业用途,但软件及其任何衍生产品必须保持免费和开源
有关完整的许可证文本,请参见 LICENSE 文件。
贡献
欢迎贡献!以下是您可以提供帮助的方式:
- Fork 存储库
- 创建一个功能分支 (
git checkout -b feature/amazing-feature) - 提交您的更改 (
git commit -m 'Add amazing feature') - 将分支推送到远程仓库 (
git push origin feature/amazing-feature) - 打开一个 Pull Request
请注意:
- 遵循现有的代码风格和约定
- 为任何新功能添加测试
- 根据需要更新文档
- 确保您的更改符合 AGPL-3.0 许可证条款
通过为此项目做出贡献,您同意您的贡献将根据 AGPL-3.0 许可证获得许可。
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。