Awesome MCP Servers
模型上下文协议 (MCP) 服务器的综合集合
TensorBlock
README
Awesome MCP 服务器 
一个不断增长的模型上下文协议 (MCP) 服务器集合。 持续更新——欢迎提交 PR 以添加缺失的服务或新创建的服务。
模型上下文协议
MCP 就像 AI 的 USB-C 端口。它是一种开放协议,用于标准化应用程序如何向语言模型提供上下文——使它们能够安全地连接到工具、数据库、API、文件系统等。
覆盖范围
截至 2025 年 4 月 2 日,此存储库目前包含 2,379 个 MCP 服务器的覆盖范围。
服务器类别
- 🤖 - AI & LLM 集成
- 🎨 - 艺术、文化与媒体
- 🌐 - 浏览器自动化与网页抓取
- 🏗️ - 构建与部署工具
- ☁️ - 云平台与服务
- ✨ - 代码分析与质量
- 💻 - 代码执行
- 💬 - 通信与消息传递
- 📝 - 内容管理系统
- 📊 - 数据分析与商业智能
- 🗄️ - 数据库
- 🛠️ - 开发者生产力与实用工具
- 📁 - 文件系统
- 💰 - 金融与加密货币
- 🎮 - 游戏
- ⚙️ - 硬件与物联网
- ❤️ - 医疗保健与生命科学
- 🧠 - 知识管理与记忆
- 🗺️ - 位置与地图
- 📈 - 营销、销售与 CRM
- 🔗 - MCP 基础设施与框架
- 📡 - 监控与可观测性
- 🖼️ - 多媒体处理
- 🖥️ - 操作系统与命令行
- ✅ - 项目与任务管理
- 🔬 - 科学与研究
- 🔎 - 搜索
- 🔒 - 安全
- 📱 - 社交媒体与内容平台
- ✈️ - 旅行与交通
- 🔧 - 实用工具与助手
- 🔄 - 版本控制
🤖 <a name="ai--llm-integration"></a>AI & LLM 集成
与其他 AI 模型、AI 平台、RAG 工具、提示管理或代理框架集成的服务器。
- evalstate/mcp-hfspace: 使用 HuggingFace spaces 的 MCP 服务器,易于配置和 Claude 桌面模式。
- phil65/mcp-server-llmling: 具有 LLMling 后端的 MCP(模型上下文协议)服务器
- run-llama/mcp-server-llamacloud: 连接到 LlamaCloud 上托管索引的 MCP 服务器
- andybrandt/mcp-simple-openai-assistant: 使 Claude 能够使用 OpenAI 的 GPTs 助手的 MCP 服务器
- michaelnguyen102/AI_Claude_MCP: 与 AI 相关的项目
- justjoehere/mcp_gradio_client: 这是一个关于如何使用模型上下文协议客户端 Python SDK 创建 gradio UI 的概念验证存储库。
- avijeett007/kno2gether-mcp-servers: 为与 Anthropic 桌面客户端一起使用而创建的自定义 MCP 服务器
- mahawi1992/mcp-documentation-server: 具有 AI 学习功能的 MCP 文档服务器
- jurasofish/mcpunk: 用于漫游 RAG 的 MCP 工具
- mzxrai/mcp-openai: 从 Claude 桌面与 OpenAI 模型聊天
- opensupplyhub/os-hub-mcp: 用于与 Claude 和 OS Hub API 交互的 MCP 服务器
- dazzaji/mcp-hello: 原始的多代理模块化初始化能力原型
- viewyonder/claudemcp: 学习和探索 Claude MCP 的文档和代码
- Tapeless-App/Tapeless-MCP: 使用 Anthropic 的模型上下文协议通过 Claude 与 Tapeless 交互
- patruff/ollama-mcp-bridge: Ollama 和 MCP 服务器之间的桥梁,使本地 LLM 能够使用模型上下文协议工具
- nguyenvanduocit/all-in-one-model-context-protocol: 🚀 具有 AI 搜索、RAG 和多服务集成 (GitLab/Jira/Confluence/YouTube) 的一体化 MCP 服务器,用于 AI 增强的开发工作流程
- DeanXu2357/mcp-translation: 尝试使用 mcp 做翻译 workflow
- Braffolk/mcp-summarization-functions: 提供来自各种操作的摘要输出,否则可能会消耗令牌并导致 AI 代理崩溃
- aliargun/mcp-server-gemini: 谷歌 Gemini API 的 MCP 服务器实现
- Jacck/mcp-reasoner: 用于 Claude 桌面的系统推理 MCP 服务器实现,具有波束搜索和思想评估。
- Text2Go/ai-humanizer-mcp-server: 一个强大的模型上下文协议 (MCP) 服务器,可帮助改进 AI 生成的内容,使其听起来更自然和人性化。 建立在先进的 AI 检测和文本增强功能之上。
- supabase-community/supabase-mcp: 将 Supabase 连接到您的 AI 助手
- heltonteixeira/openrouterai: 用于 OpenRouter.ai 集成的 MCP 服务器
- SecretiveShell/MCP-wolfram-alpha: 将您的聊天回复连接到 wolfram alpha 计算智能
- heltonteixeira/ragdocs: 用于基于 RAG 的文档搜索和管理的 MCP 服务器
- ausboss/mcp-ollama-agent: 一个 TypeScript 示例,展示了 Ollama 与模型上下文协议 (MCP) 服务器的集成。 该项目为 AI 代理提供了一个交互式命令行界面,该代理可以使用来自多个 MCP 服务器的工具。
- malloryai/mallory-mcp-server: 用于 mallory.ai 智能的 MCP 服务器
- deepfates/mcp-replicate: Replicate API 的模型上下文协议服务器
- codingthefuturewithai/rag-retriever: 一个 Python 应用程序,用于加载和处理网页和本地文档,使用嵌入索引其内容,并启用语义搜索查询。
- gxjansen/Transistor-MCP: 用于 LLM 的晶体管 MCP 服务器实现
- fffej/basic-agents: 一组简单的代理,让我的生活更轻松。
- pnikonowicz/events-ai: 各种活动网站的推荐引擎
- unifai-network/unifai-sdk-py: unifai-sdk-py 是 Unifai 的 Python SDK,Unifai 是一个 AI 原生平台,用于动态工具和代理到代理的通信。
- loopwork-ai/emcee: 将代理连接到 API 🫳🎤💥
- bmorphism/anti-bullshit-mcp-server: MCP 服务器,用于分析声明、验证来源以及使用多个认识论框架检测操纵
- jasonjmcghee/claude-debugs-for-you: 使任何 LLM(例如 Claude)能够通过 MCP 和 VS Code 扩展交互式地调试任何语言
- GRID-is/claude-mcp: 一个 MCP 服务器,用于直接从 Claude for Desktop 使用 GRID API
- unifai-network/unifai-sdk-js: unifai-sdk-js 是 Unifai 的 Javascript/Typescript SDK,Unifai 是一个 AI 原生平台,用于动态工具和代理到代理的通信。
- lloydhamilton/langchain_mcp_connect: 用于轻松将 Anthropic 模型上下文协议 (MCP) 与 Langchain 集成的工具
- DMontgomery40/deepseek-mcp-server: 用于 DeepSeek 高级语言模型的模型上下文协议服务器
- spences10/mcp-sequentialthinking-tools: 🧠 MCP 顺序思维服务器的改编版,用于指导工具使用。 此服务器提供有关在每个阶段哪些 MCP 工具最有效的建议。
- vincentf305/mcp-server-ollama: 用于将 Claude Desktop 连接到 Ollama LLM 服务器的 MCP 服务器
- DaInfernalCoder/perplexity-mcp: 一个模型上下文协议 (MCP) 服务器,用于使用 Perplexity AI 进行研究和文档帮助。 在 Cline Hackathon 上获得第一名
- newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP: 🧠 实现 RAT(检索增强思维)的 MCP 服务器 - 将 DeepSeek 的推理与 GPT-4/Claude/Mistral 响应相结合,在交互之间保持对话上下文。
- cyanheads/mentor-mcp-server: 一个模型上下文协议服务器,通过 AI 驱动的 Deepseek-Reasoning R1 指导功能为 LLM 代理提供第二种意见,包括代码审查、设计评论、写作反馈以及通过 Deepseek API 进行的创意头脑风暴。
- HarshJ23/deepseek-claude-MCP-server: 一个 MCP 服务器,将 DeepSeek R1 模型的推理能力集成到 claude 桌面应用程序中。
- vincentf305/mcp-server-deepseek: 用于在 Claude 桌面中进行 deepseek 集成的 MCP 服务器
- codingthefuturewithai/conduit: 基于 Python 的服务,旨在为 AI 工具和应用程序提供统一、一致的界面,以便与企业知识和协作平台进行交互。
- shuntaka9576/cal2prompt: ✨ 获取您的日程安排(Google 日历)并将其作为单个 LLM 提示输出,并具有可选的 MCP 服务器模式。
- ognis1205/mcp-server-unitycatalog: Unity Catalog AI 模型上下文协议服务器
- 66julienmartin/MCP-server-Deepseek_R1: 一个模型上下文协议 (MCP) 服务器实现,将 Claude Desktop 与 DeepSeek 的语言模型 (R1/V3) 连接起来
- 66julienmartin/MCP-server-Qwen_Max: Qwen Max 模型的 MCP 服务器
- vrknetha/aisdk-mcp-bridge: 桥接包,可在模型上下文协议 (MCP) 服务器和 AI SDK 工具之间实现无缝集成。 支持多种服务器类型、实时通信和 TypeScript。
- emgeee/mcp-ollama: 从 Claude Desktop 或其他 MCP 客户端查询使用 Ollama 运行的模型
- punkpeye/mcp-ollama-link: 通过将计算卸载到本地系统来节省您的令牌限制。 支持 Deepseek。
- teilomillet/hapax-py: 一个构建在 OpenLit 之上的类型安全图执行框架,用于 LLM 管道
- smithery-ai/mcp-deepseek-agent: 使用本地 deepseek 和 ollama 构建 mcp 客户端
- thinkthinking/think-mcp-host: Think MCP Host (AI·Zen·Love) - 一个基于模型上下文协议 (MCP) 的智能代理应用程序,可将 MCP 资源、工具和提示无缝集成到对话中,由各种 LLM、VLM 和推理模型提供支持。
- firstbatchxyz/dria-agent: 功能强大且快速的工具调用代理
- GLips/Figma-Context-MCP: MCP 服务器,用于向 AI 编码代理(如 Cursor)提供 Figma 布局信息
- ruixingshi/deepseek-thinker-mcp: 一个 MCP 提供程序 Deepseek 推理内容到支持 MCP 的 AI 客户端,如 Claude Desktop。 支持从 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的 CoT。
- rawveg/ollama-mcp: Ollama 的 MCP 服务器
- r-huijts/portkey-admin-mcp-server: Portkey AI 平台的模型上下文协议 (MCP) 服务器实现,提供用于管理 AI 配置、工作区和分析的标准化界面。
- philipp-eisen/modal-mcp-toolbox: 一组在 Modal 上运行的 LLM 工具
- langfuse/mcp-server-langfuse: 用于 Langfuse 提示管理的模型上下文协议 (MCP) 服务器。 此服务器允许您通过模型上下文协议访问和管理您的 Langfuse 提示。
- ChronulusAI/chronulus-mcp: 用于 Chronulus AI 预测和预测代理的 MCP 服务器
- KYBvWHxW/advanced-nlp-entity-extraction: 具有 ReAct 框架的高级 NLP 实体提取实现
- KYBvWHxW/causal-reasoning-llm: 大型语言模型中因果推理能力的一项比较研究 (arXiv-2502.10215v1)
- Chakra-Network/mcp-server: 与 Anthropic 的模型上下文协议的本机集成。
- yuru-sha/mcp-server-dify: Dify AI 的示例 MCP 服务器
- Garoth/wolframalpha-llm-mcp: WolframAlpha 的 LLM API 的 MCP 服务器,能够返回结构化知识并解决数学问题
- ferdousbhai/investor-agent: 用于构建投资者代理的模型上下文协议服务器
- thadius83/mcp-server-openai: 具有 o3-mini 支持的 mcp-server-openai
- moyu6027/deepseek-MCP-server: 通过集成 DeepSeek R1 的高级推理引擎来增强 Claude 推理能力的 MCP 服务器
- its-dart/dart-mcp-server: Dart AI 模型上下文协议 (MCP) 服务器
- jonrad/lsp-mcp: 一个模型上下文协议 (MCP) 服务器,为 LLM/AI 代理提供语言服务器协议 (LSP) 服务器的功能。 这使 AI 能够从代码库中获取语言感知上下文。
- zenml-io/mcp-zenml: MCP 服务器,用于将 MCP 客户端(Cursor、Claude Desktop 等)与您的 ZenML MLOps 和 LLMOps 管道连接起来
- devopsnextgenx/ai-psat-generator: ai-psat-generator
- ajaroyster/emcee: 将代理连接到 API 🫳🎤💥 代理、模型上下文协议、openapi
- Heratiki/locallama-mcp: 一个与 Roo Code/Cline.Bot/Claude Desktop 配合使用的 MCP 服务器,通过智能地在本地 LLM 免费 API 和付费 API 之间路由编码任务来优化成本。
- PaWeRe/CoCo: 人机调解员。 帮助 LLM 了解您。
- nod-ai/StabilityAI-client-typescript: 用于使用 StabilityAI API 的 TypeScript 客户端
- athapong/aio-mcp: 🚀 具有 AI 搜索、RAG 和多服务集成 (GitLab/Jira/Confluence/YouTube) 的一体化 MCP 服务器,用于 AI 增强的开发工作流程。 来自 https://github.com/nguyenvanduocit/all-in-one-model-context-protocol 的 Folk
- Streen9/react-mcp: react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序
- mfinkle/llm-agents: 对使用 LLM 构建不同类型的工具使用代理的基本探索
- jonator/osmosis-agent-toolkit: LLM 的渗透协议工具
- ai-zerolab/Floword: 使用自然语言构建工作流程。
- sylearn/ActionAI: ActionAI 是基于大语言模型的命令行交互框架,支持多种模型切换、MCP协议,提供流畅的交互式聊天体验。通过终端界面,可以与AI进行自然对话,并通过强大丰富MCP服务端,让AI具备文件读写、网络访问、代码执行等能力。
- 0xshellming/mcp-summarizer: 用于 AI 摘要的 MCP 服务器
- Volunteer-Assistants/multi-llm-workflow: 用于编码任务的工作流程编排 Claude (3.7 Sonnet) 和 ChatGPT (o1)。
- zhangzhongnan928/mcp-pa-ai-agent: 使用模型上下文协议 (MCP) 构建的个人助理 AI 代理
- stat-guy/chain-of-draft: 草案链 (CoD) MCP 服务器:用于更高效的 LLM 推理的草案链推理方法的 MCP 服务器实现。
- jamcam-me/Claude-MCP: Claude MCP
- theronic/modex: Modex 是一个 Clojure MCP 库,用于使用 Clojure(模型上下文协议)通过工具、资源和提示来增强您的 AI 模型。 实现 MCP 服务器和客户端。
- sparesparrow/mcp-prompts: 用于管理、存储和提供 LLM 交互的提示和提示模板的模型上下文协议服务器。
- ericflo/agentoptim: AgentOptim 是一组专注但功能强大的 MCP 工具,允许支持 MCP 的代理以数据驱动的方式优化提示。
- MattMorgis/nuanced-mcp: 一个模型上下文协议 (MCP) 服务器,通过 nuanced 库为 LLM 提供调用图分析功能
- a0dotrun/expose: 为 LLM 公开 MCP 工具
- getfounded/mcp-tool-kit: 用于构建用 python 编写的高精度垂直 AI 代理的 Agentic 抽象层。 模型上下文协议的中间件。
- tayler-id/comic-panel-description-generator: 一种 AI 驱动的工具,可自动将漫画草图转换为文本面板描述
- waleedf/CodeConversationsMCP: 通过此模型上下文协议服务器使 Claude 能够咨询其他 LLM。
- your-mcp-repo/MCP.Ai: 一种开放标准框架,彻底改变了 LLM 与外部系统的集成。
- ezyang/codemcp: Claude Desktop 的编码助手 MCP
- mashiike/estellm: Agentic 工作流程框架
- scald/tesla-mcp: 一个模型上下文协议服务器,供 AI 模型与 Tesla Fleet API 交互。
- SailFish-Finance/educhain-ai-agent-kit: 此 MCP(模型上下文协议)服务器已集成到 Claude 的 MCP 中,并由 SailFish 维护
- MushroomFleet/TranscriptionTools-MCP: 一个 MCP 服务器,提供智能转录处理功能,具有自然格式、上下文修复和由 Deep Thinking LLM 提供支持的智能摘要。
- MushroomFleet/DeepLucid3D-MCP: 统一认知处理框架 - Cline 等的 MCP 服务器
- matterai/mcp-devprompts: 基于 Github Gist 的提示
- gscalzo/stackoverflow-mcp: 一个用于查询 Stack Overflow 的模型上下文协议服务器,以帮助 AI 模型找到编程解决方案
- Bob-lance/grok-mcp: 用于 Grok AI API 集成的 MCP 服务器
- OtotaO/unsloth-mcp-server: Unsloth 的 MCP 服务器 - 一个使 LLM 微调速度提高 2 倍且内存减少 80% 的库
- memenow/persona-agent: 一个灵活而强大的框架,用于使用 AutoGen 和模型上下文协议 (MCP) 集成创建 AI 角色代理。
- tiovikram/openai-websearch-mcp: OpenAI WebSearch 的 MCP
- shubham0704/personal_mcp_agents: 我每天使用的一组 MCP 代理
- frozenlib/mcp-attr-example-cargo-metadata: AI任せで作ってみたMCP Server
- planetarium/mcp-agent8: Agent8 的 MCP 服务器
- severity1/terraform-cloud-mcp: 一个模型上下文协议 (MCP) 服务器,将 AI 助手与 Terraform Cloud API 集成,允许您通过自然对话管理您的基础设施
- ttiimmaacc/cinema4d-mcp: Cinema 4D 插件,集成了 Claude AI,用于提示驱动的 3D 建模、场景创建和操作。
- awkoy/replicate-flux-mcp: Replicate Flux 模型的 MCP - 一种强大的工具,用于生成与特定编码氛围和美学风格相匹配的自定义图像和 SVG 资产。 通过专为开发人员量身定制的 AI 驱动的设计生成来简化您的视觉资产创建过程。
- nkapila6/mcp-local-rag: 本地运行的“原始”RAG 类网络搜索模型上下文协议 (MCP) 服务器。 ✨ 没有 API ✨
- alohays/openai-tool2mcp: openai 内置工具的 mcp 包装器
- junjiem/dify-plugin-agent-mcp_sse: Dify 1.0 插件支持 MCP SSE 工具代理策略
- HubbleVision/hubble-ai-mcp: Hubble-ai mcp 服务器
- sjquant/llm-bridge-mcp: 一个模型无关的消息控制协议 (MCP) 服务器,可实现与各种大型语言模型 (LLM)(如 GPT、DeepSeek、Claude 等)的无缝集成。
- KeriaDaring/DigIt: 一个支持 MCP 的代理 🤖,使用 Dora 数据流框架 ⚙️ 和 MOFA 🐍 构建,旨在在复杂的处理管道 🔗 中实现高效的上下文管理。
- ronangrant/mcp-svelte-docs: 使用 RAG 在 Cursor 和 MCP 中访问官方 Svelte5 文档。
- StevenBtw/uv-docs-mcp: 一个模型上下文协议 (MCP) 服务器,提供对 UV 包管理器文档的访问。
- bitibi/OpenAI-WebSearch-MCP-Server: 一个用于处理使用 MCP(多配置协议)的 OpenAI 网络搜索的服务器
- GobinFan/python-mcp-server-client: 支持查询主流agent框架技术文档的MCP server(支持stdio和sse两种传输协议), 支持 langchain、llama-index、autogen、agno、openai-agents-sdk、mcp-doc、camel-ai 和 crew-ai
- aljazceru/domain-checker-mcp: 一种工具,使 LLM 能够检查域是否可用或已注册
- lroolle/openai-agents-mcp-server: 作为 MCP 服务器的 OpenAI 代理和工具
- PsychArch/minimax-mcp-tools: 具有 Minimax API 集成的模型上下文协议 (MCP) 服务器实现
- agentrpc/agentrpc: AI 代理的通用 RPC 层。 在几分钟内连接到任何函数、任何语言、任何框架。
- cremich/promptz-mcp: promptz.dev 的 MCP 服务器实现
- gdli6177/mcp-prompt-server: 这是一个基于Model Context Protocol (MCP)的服务器,用于根据用户任务需求提供预设的prompt模板,帮助Cline/Cursor/Windsurf...更高效地执行各种任务。服务器将预设的prompt作为工具(tools)返回,以便在Cursor和Windsurf等编辑器中更好地使用。
- seyhunak/agentcraft-mcp: AgentCraft MCP 服务器
- keli-wen/mcp_chatbot: 与 MCP 兼容的简单聊天机器人实现(从 MCP 官方 python sdk 分叉)。
- Garblesnarff/gemini-mcp-server: 一个模型上下文协议 (MCP) 服务器,使 Claude Desktop 能够使用 Google 的 Gemini AI 生成图像
- playcanvas/editor-mcp-server: 用于 PlayCanvas 编辑器的 AI 自动化的 MCP 服务器
- IMNMV/ClaudeR: Claude 的 R MCP 集成
- matlock08/watson_discovery_mcp: Watson Discovery 的 MCP 实现
- butelo/mcp-dicionario-da-rag: MCP(模型上下文协议)实现,允许 llm 与 Dicionario da Real Academia Galega 交互
- Leghis/Smart-Thinking: Smart-Thinking 一个 MCP(模型上下文协议)服务器,为 Claude 等 AI 助手提供多维、自适应和协作的推理框架。
- techspawn/Turbo-MCP-Client: 一个基于 FastAPI 的应用程序,提供一个 Web 界面,用于与多个控制协议 (MCP) 服务器交互,同时利用 OpenAI 的 API 来处理消息。
- nicozumarraga/light-mcp-agents: 用于使用模型上下文协议 (MCP) 构建 muti-agent 系统的轻量级、可组合框架
- brendancopley/mcp-chain-of-draft-prompt-tool: MCP 提示工具,应用草案链 (CoD) 推
推荐服务器
Crypto Price & Market Analysis MCP Server
一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。
MCP PubMed Search
用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。
mixpanel
连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

Nefino MCP Server
为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。
Vectorize
将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。
Mathematica Documentation MCP server
一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。
kb-mcp-server
一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。
Research MCP Server
这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

Cryo MCP Server
一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。