发现优秀的 MCP 服务器
通过 MCP 服务器扩展您的代理能力,拥有 12,316 个能力。

GraphQL MCP Server
一个 TypeScript 服务器,通过模型上下文协议为 Claude AI 提供对任何 GraphQL API 的无缝访问。

MCP Prompt Server
一个基于模型上下文协议的服务器,为代码审查和 API 文档生成等任务提供预定义的提示模板,从而在 Cursor/Windsurf 编辑器中实现更高效的工作流程。
MCP Server Reddit
镜子 (jìng zi)
mcp-weather-server
好的,这是提供天气数据给 LLM 的一个示例模型上下文协议服务器: ```python import asyncio import json import os from typing import Any, Dict, List, Optional from fastapi import FastAPI, HTTPException from pydantic import BaseModel # 模拟天气数据 WEATHER_DATA = { "San Francisco": {"temperature": 15, "condition": "Cloudy"}, "New York": {"temperature": 22, "condition": "Sunny"}, "London": {"temperature": 18, "condition": "Rainy"}, "Tokyo": {"temperature": 25, "condition": "Clear"}, } class ContextRequest(BaseModel): """ LLM 请求上下文信息的请求体。 """ query: str location: Optional[str] = None # 可选的位置信息 class ContextResponse(BaseModel): """ 服务器返回给 LLM 的上下文信息。 """ context: Dict[str, Any] app = FastAPI() @app.post("/context") async def get_context(request: ContextRequest) -> ContextResponse: """ 根据 LLM 的查询请求,提供上下文信息。 """ print(f"Received query: {request.query}") print(f"Received location: {request.location}") location = request.location if not location: # 如果没有提供位置,则尝试从查询中提取 # 这是一个非常简单的示例,实际应用中需要更复杂的 NLP 处理 if "San Francisco" in request.query: location = "San Francisco" elif "New York" in request.query: location = "New York" elif "London" in request.query: location = "London" elif "Tokyo" in request.query: location = "Tokyo" else: raise HTTPException(status_code=400, detail="Location not specified and could not be inferred from query.") if location not in WEATHER_DATA: raise HTTPException(status_code=404, detail=f"Weather data not found for location: {location}") weather = WEATHER_DATA[location] context = { "location": location, "temperature": weather["temperature"], "condition": weather["condition"], } print(f"Returning context: {context}") return ContextResponse(context=context) if __name__ == "__main__": import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000) ``` **代码解释:** 1. **导入必要的库:** - `asyncio`: 用于异步操作。 - `json`: 用于处理 JSON 数据。 - `os`: 用于操作系统相关的功能。 - `typing`: 用于类型提示。 - `fastapi`: 用于创建 API。 - `pydantic`: 用于数据验证和序列化。 2. **模拟天气数据:** - `WEATHER_DATA`: 一个字典,存储了不同城市的天气数据。 这只是一个模拟数据,实际应用中需要从外部 API 或数据库获取。 3. **定义数据模型:** - `ContextRequest`: 定义了 LLM 请求上下文信息的请求体,包含 `query` (LLM 的查询) 和可选的 `location` (位置信息)。 - `ContextResponse`: 定义了服务器返回给 LLM 的上下文信息,包含一个 `context` 字典。 4. **创建 FastAPI 应用:** - `app = FastAPI()`: 创建一个 FastAPI 应用实例。 5. **定义 `/context` 接口:** - `@app.post("/context")`: 定义一个 POST 请求的接口,路径为 `/context`。 - `async def get_context(request: ContextRequest) -> ContextResponse:`: 定义处理请求的异步函数。 - `request: ContextRequest`: 接收请求体,并将其解析为 `ContextRequest` 对象。 - `-> ContextResponse`: 指定函数返回 `ContextResponse` 对象。 6. **处理请求逻辑:** - **打印接收到的查询和位置信息:** 用于调试和日志记录。 - **获取位置信息:** - 首先尝试从 `request.location` 中获取位置信息。 - 如果 `request.location` 为空,则尝试从 `request.query` 中提取位置信息。 这是一个非常简单的示例,实际应用中需要使用更复杂的 NLP 技术来提取位置信息。 - 如果无法获取位置信息,则返回一个 HTTP 400 错误。 - **获取天气数据:** - 检查 `location` 是否在 `WEATHER_DATA` 中。 - 如果 `location` 不在 `WEATHER_DATA` 中,则返回一个 HTTP 404 错误。 - 从 `WEATHER_DATA` 中获取天气数据。 - **构建上下文信息:** - 创建一个 `context` 字典,包含 `location`、`temperature` 和 `condition`。 - **返回上下文信息:** - 创建一个 `ContextResponse` 对象,并将 `context` 字典赋值给它。 - 返回 `ContextResponse` 对象。 7. **运行 FastAPI 应用:** - `if __name__ == "__main__":`: 确保代码只在直接运行脚本时执行,而不是在被导入为模块时执行。 - `uvicorn.run(app, host="0.0.0.0", port=8000)`: 使用 Uvicorn 运行 FastAPI 应用。 - `host="0.0.0.0"`: 允许从任何 IP 地址访问应用。 - `port=8000`: 指定应用监听的端口为 8000。 **如何运行:** 1. **安装依赖:** ```bash pip install fastapi uvicorn pydantic ``` 2. **运行脚本:** ```bash python your_script_name.py ``` 3. **测试接口:** 可以使用 `curl` 或其他 HTTP 客户端来测试接口。 例如: ```bash curl -X POST -H "Content-Type: application/json" -d '{"query": "What is the weather in San Francisco?", "location": "San Francisco"}' http://localhost:8000/context ``` 或者,如果省略 `location`,服务器会尝试从 `query` 中推断: ```bash curl -X POST -H "Content-Type: application/json" -d '{"query": "What is the weather in San Francisco?"}' http://localhost:8000/context ``` **重要说明:** * **真实数据源:** 这个示例使用模拟的天气数据。 在实际应用中,你需要使用真实的天气 API (例如 OpenWeatherMap, AccuWeather) 或数据库来获取数据。 * **NLP 处理:** 从查询中提取位置信息的部分非常简单。 在实际应用中,你需要使用更复杂的 NLP 技术 (例如命名实体识别) 来准确地提取位置信息。 * **错误处理:** 这个示例只包含基本的错误处理。 在实际应用中,你需要添加更完善的错误处理机制,例如日志记录和重试机制。 * **安全性:** 在生产环境中,你需要考虑安全性问题,例如身份验证和授权。 * **可扩展性:** 如果需要处理大量的请求,你需要考虑使用负载均衡和缓存等技术来提高可扩展性。 * **模型上下文协议:** 这个示例符合模型上下文协议的基本要求,即接收 LLM 的查询请求,并返回相关的上下文信息。 你需要根据 LLM 的具体要求来调整请求和响应的格式。 这个示例提供了一个基本的框架,你可以根据自己的需求进行修改和扩展。 希望这个示例对你有所帮助!

mcp-clickhouse-long-running
mcp-clickhouse-long-running
Data Visualization MCP Server
镜子 (jìng zi)

RAGmonsters Custom PostgreSQL MCP Server
A domain-specific MCP server that provides optimized API access to the RAGmonsters fictional monster dataset, enabling more efficient and secure interactions compared to generic SQL queries.
MCP Server My Lark Doc
Deep Research MCP Server 🚀
使用 Gemini 的 MCP 深度研究服务器创建研究型 AI 代理
Getting Started with Remote MCP Servers using Azure Functions (Overview)
以下是一个着陆页的中文翻译,用于介绍在 Azure Functions 上运行远程 MCP 服务器的工作,并提供指向各种语言堆栈特定代码仓库的链接: **标题:在 Azure Functions 上运行远程 MCP 服务器** **简介:** 欢迎来到在 Azure Functions 上运行远程 MCP (Minecraft Protocol) 服务器的资源中心! Azure Functions 提供了一种经济高效且可扩展的方式来托管您的 Minecraft 服务器后端逻辑。 本项目旨在提供各种语言堆栈的示例和工具,帮助您轻松地在 Azure Functions 上部署和管理您的远程 MCP 服务器。 **优势:** * **经济高效:** 按需付费,仅在服务器运行时才产生费用。 * **可扩展性:** Azure Functions 可以根据玩家数量自动扩展,确保流畅的游戏体验。 * **易于部署:** 使用我们提供的示例和工具,您可以快速轻松地部署您的远程 MCP 服务器。 * **语言灵活性:** 我们支持多种编程语言,您可以选择最适合您的语言。 **支持的语言堆栈:** 以下是支持的语言堆栈及其对应代码仓库的链接: * **[语言名称 1]:** [代码仓库链接 1] (例如:Python: [GitHub 链接]) * **[语言名称 2]:** [代码仓库链接 2] (例如:Java: [GitHub 链接]) * **[语言名称 3]:** [代码仓库链接 3] (例如:C#: [GitHub 链接]) * **[语言名称 4]:** [代码仓库链接 4] (例如:Node.js: [GitHub 链接]) **入门指南:** 1. 选择您喜欢的语言堆栈。 2. 访问相应的代码仓库。 3. 按照仓库中的说明进行操作,设置您的 Azure Functions 项目。 4. 部署您的 Azure Functions 到 Azure。 5. 配置您的 Minecraft 客户端以连接到您的远程 MCP 服务器。 **资源:** * [Azure Functions 文档](链接到 Azure Functions 文档) * [Minecraft 协议文档](链接到 Minecraft 协议文档) * [社区论坛](链接到社区论坛) **贡献:** 我们欢迎您的贡献! 如果您想添加对其他语言堆栈的支持,改进现有示例,或修复错误,请提交 Pull Request。 **联系方式:** 如果您有任何问题或建议,请通过 [联系方式] 与我们联系。 **英文原文参考:** **Title: Running Remote MCP Server on Azure Functions** **Introduction:** Welcome to the resource hub for running a remote MCP (Minecraft Protocol) server on Azure Functions! Azure Functions provide a cost-effective and scalable way to host your Minecraft server backend logic. This project aims to provide examples and tools for various language stacks to help you easily deploy and manage your remote MCP server on Azure Functions. **Benefits:** * **Cost-Effective:** Pay-as-you-go pricing, only incurring costs when the server is running. * **Scalable:** Azure Functions can automatically scale based on player count, ensuring a smooth gaming experience. * **Easy Deployment:** With our provided examples and tools, you can quickly and easily deploy your remote MCP server. * **Language Flexibility:** We support multiple programming languages, allowing you to choose the one that best suits your needs. **Supported Language Stacks:** Below are the supported language stacks and links to their respective repositories: * **[Language Name 1]:** [Repository Link 1] (e.g., Python: [GitHub Link]) * **[Language Name 2]:** [Repository Link 2] (e.g., Java: [GitHub Link]) * **[Language Name 3]:** [Repository Link 3] (e.g., C#: [GitHub Link]) * **[Language Name 4]:** [Repository Link 4] (e.g., Node.js: [GitHub Link]) **Getting Started:** 1. Choose your preferred language stack. 2. Visit the corresponding repository. 3. Follow the instructions in the repository to set up your Azure Functions project. 4. Deploy your Azure Functions to Azure. 5. Configure your Minecraft client to connect to your remote MCP server. **Resources:** * [Azure Functions Documentation](Link to Azure Functions Documentation) * [Minecraft Protocol Documentation](Link to Minecraft Protocol Documentation) * [Community Forum](Link to Community Forum) **Contributing:** We welcome your contributions! If you would like to add support for other language stacks, improve existing examples, or fix bugs, please submit a Pull Request. **Contact:** If you have any questions or suggestions, please contact us at [Contact Information].

tabular-mcp
tabular-mcp

Anki MCP Server
一个模型上下文协议服务器,允许大型语言模型(LLM)与 Anki 抽认卡软件进行交互,从而实现诸如创建牌组、添加笔记、搜索卡片以及通过自然语言管理抽认卡内容等功能。

Kakao Navigation
使用 Kakao Mobility 和 Kakao Map API 的 Kakao 导航 MCP 服务器

mcp-flux-schnell
一个基于 TypeScript 的 MCP 服务器,它使用 Cloudflare 的 Flux Schnell 模型 API 来实现文本到图像的生成。
LlamaCloud MCP Server
镜子 (jìng zi)

Beeper MCP Note Server
一个简单的 MCP 服务器,用于创建和管理笔记,并支持总结功能。 (Alternatively, if you want to emphasize the "for" part:) 一个简单的 MCP 服务器,**旨在**创建和管理笔记,并支持总结功能。
Awesome MCP Server CN
That's a good translation! It's accurate and concise.

DouYuSearcher MCP Server
A lightweight MCP server that allows querying and searching for Douyu live streaming room information by room ID or keywords, returning results in Markdown format.

SQLite MCP Server
A Python-based SQLite MCP server supporting database read/write operations with natural language interaction capabilities, packaged for Docker deployment in stdio mode.
LiteMCP
一个用于优雅地构建 MCP 服务器的 TypeScript 框架

Jira MCP Server
一个模型上下文协议(Model Context Protocol)服务器,提供与 Jira 的集成,允许大型语言模型通过自然语言与 Jira 项目、看板、迭代和问题进行交互。
简介
🏓 MCP Ping-Pong Server by Remote Call
🏓 一个实验性和教育性的乒乓球发球应用程序,演示了远程 MCP(模型上下文协议)调用。

serverMCprtWhat is serverMCprt?How to use serverMCprt?Key features of serverMCprt?Use cases of serverMCprt?FAQ from serverMCprt?
测试 (cè shì)
MSSQL MCP Server
通过模型上下文协议,可以执行 SQL 查询并管理 Microsoft SQL Server 数据库连接。
MCP Server for Stock Market Analysis
Unreal Engine Generative AI Support Plugin
UnrealMCP 来了!!通过 AI 自动生成蓝图和场景!!一个用于 LLM/GenAI 模型和 MCP UE5 服务器的虚幻引擎插件。支持 Claude Desktop App、Windsurf 和 Cursor,还包括 OpenAI 的 GPT4o、DeepseekR1 和 Claude Sonnet 3.7 API,并计划很快添加 Gemini、Grok 3、音频和实时 API。

BigQuery Analysis MCP Server
一个服务器,可以针对 Google BigQuery 执行和验证 SQL 查询,并具有安全功能,以防止数据修改和过度处理。
Hugeicons MCP Server
镜子 (jìng zi)
NextChat with MCP Server Builder
具有 MCP 服务器创建功能的 NextChat 和 OpenRouter 集成 (Jùyǒu MCP fúwùqì chuàngjiàn gōngnéng de NextChat hé OpenRouter jíchéng)