发现优秀的 MCP 服务器
通过 MCP 服务器扩展您的代理能力,拥有 10,038 个能力。
MCP with Gemini Tutorial
使用 Google Gemini 构建 MCP 服务器
Kolada MCP Server
用于 Kolada 的 MCP 服务器。
test-mcp-server
MCP Server Reddit
镜子 (jìng zi)
Data Visualization MCP Server
镜子 (jìng zi)
Deep Research MCP Server 🚀
使用 Gemini 的 MCP 深度研究服务器创建研究型 AI 代理
Lara Translate MCP Server
一个MCP服务器,通过Lara Translate API提供机器翻译功能,具有语言检测和在多种语言对之间进行上下文感知翻译的能力。
Wikipedia MCP Image Crawler
一个维基百科图片搜索工具。它遵循知识共享许可协议,并通过 Claude Desktop/Cline 在你的项目中使用这些图片。
Awesome MCP Server CN
That's a good translation! It's accurate and concise.
mcp-weather-server
好的,这是提供天气数据给 LLM 的一个示例模型上下文协议服务器: ```python import asyncio import json import os from typing import Any, Dict, List, Optional from fastapi import FastAPI, HTTPException from pydantic import BaseModel # 模拟天气数据 WEATHER_DATA = { "San Francisco": {"temperature": 15, "condition": "Cloudy"}, "New York": {"temperature": 22, "condition": "Sunny"}, "London": {"temperature": 18, "condition": "Rainy"}, "Tokyo": {"temperature": 25, "condition": "Clear"}, } class ContextRequest(BaseModel): """ LLM 请求上下文信息的请求体。 """ query: str location: Optional[str] = None # 可选的位置信息 class ContextResponse(BaseModel): """ 服务器返回给 LLM 的上下文信息。 """ context: Dict[str, Any] app = FastAPI() @app.post("/context") async def get_context(request: ContextRequest) -> ContextResponse: """ 根据 LLM 的查询请求,提供上下文信息。 """ print(f"Received query: {request.query}") print(f"Received location: {request.location}") location = request.location if not location: # 如果没有提供位置,则尝试从查询中提取 # 这是一个非常简单的示例,实际应用中需要更复杂的 NLP 处理 if "San Francisco" in request.query: location = "San Francisco" elif "New York" in request.query: location = "New York" elif "London" in request.query: location = "London" elif "Tokyo" in request.query: location = "Tokyo" else: raise HTTPException(status_code=400, detail="Location not specified and could not be inferred from query.") if location not in WEATHER_DATA: raise HTTPException(status_code=404, detail=f"Weather data not found for location: {location}") weather = WEATHER_DATA[location] context = { "location": location, "temperature": weather["temperature"], "condition": weather["condition"], } print(f"Returning context: {context}") return ContextResponse(context=context) if __name__ == "__main__": import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000) ``` **代码解释:** 1. **导入必要的库:** - `asyncio`: 用于异步操作。 - `json`: 用于处理 JSON 数据。 - `os`: 用于操作系统相关的功能。 - `typing`: 用于类型提示。 - `fastapi`: 用于创建 API。 - `pydantic`: 用于数据验证和序列化。 2. **模拟天气数据:** - `WEATHER_DATA`: 一个字典,存储了不同城市的天气数据。 这只是一个模拟数据,实际应用中需要从外部 API 或数据库获取。 3. **定义数据模型:** - `ContextRequest`: 定义了 LLM 请求上下文信息的请求体,包含 `query` (LLM 的查询) 和可选的 `location` (位置信息)。 - `ContextResponse`: 定义了服务器返回给 LLM 的上下文信息,包含一个 `context` 字典。 4. **创建 FastAPI 应用:** - `app = FastAPI()`: 创建一个 FastAPI 应用实例。 5. **定义 `/context` 接口:** - `@app.post("/context")`: 定义一个 POST 请求的接口,路径为 `/context`。 - `async def get_context(request: ContextRequest) -> ContextResponse:`: 定义处理请求的异步函数。 - `request: ContextRequest`: 接收请求体,并将其解析为 `ContextRequest` 对象。 - `-> ContextResponse`: 指定函数返回 `ContextResponse` 对象。 6. **处理请求逻辑:** - **打印接收到的查询和位置信息:** 用于调试和日志记录。 - **获取位置信息:** - 首先尝试从 `request.location` 中获取位置信息。 - 如果 `request.location` 为空,则尝试从 `request.query` 中提取位置信息。 这是一个非常简单的示例,实际应用中需要使用更复杂的 NLP 技术来提取位置信息。 - 如果无法获取位置信息,则返回一个 HTTP 400 错误。 - **获取天气数据:** - 检查 `location` 是否在 `WEATHER_DATA` 中。 - 如果 `location` 不在 `WEATHER_DATA` 中,则返回一个 HTTP 404 错误。 - 从 `WEATHER_DATA` 中获取天气数据。 - **构建上下文信息:** - 创建一个 `context` 字典,包含 `location`、`temperature` 和 `condition`。 - **返回上下文信息:** - 创建一个 `ContextResponse` 对象,并将 `context` 字典赋值给它。 - 返回 `ContextResponse` 对象。 7. **运行 FastAPI 应用:** - `if __name__ == "__main__":`: 确保代码只在直接运行脚本时执行,而不是在被导入为模块时执行。 - `uvicorn.run(app, host="0.0.0.0", port=8000)`: 使用 Uvicorn 运行 FastAPI 应用。 - `host="0.0.0.0"`: 允许从任何 IP 地址访问应用。 - `port=8000`: 指定应用监听的端口为 8000。 **如何运行:** 1. **安装依赖:** ```bash pip install fastapi uvicorn pydantic ``` 2. **运行脚本:** ```bash python your_script_name.py ``` 3. **测试接口:** 可以使用 `curl` 或其他 HTTP 客户端来测试接口。 例如: ```bash curl -X POST -H "Content-Type: application/json" -d '{"query": "What is the weather in San Francisco?", "location": "San Francisco"}' http://localhost:8000/context ``` 或者,如果省略 `location`,服务器会尝试从 `query` 中推断: ```bash curl -X POST -H "Content-Type: application/json" -d '{"query": "What is the weather in San Francisco?"}' http://localhost:8000/context ``` **重要说明:** * **真实数据源:** 这个示例使用模拟的天气数据。 在实际应用中,你需要使用真实的天气 API (例如 OpenWeatherMap, AccuWeather) 或数据库来获取数据。 * **NLP 处理:** 从查询中提取位置信息的部分非常简单。 在实际应用中,你需要使用更复杂的 NLP 技术 (例如命名实体识别) 来准确地提取位置信息。 * **错误处理:** 这个示例只包含基本的错误处理。 在实际应用中,你需要添加更完善的错误处理机制,例如日志记录和重试机制。 * **安全性:** 在生产环境中,你需要考虑安全性问题,例如身份验证和授权。 * **可扩展性:** 如果需要处理大量的请求,你需要考虑使用负载均衡和缓存等技术来提高可扩展性。 * **模型上下文协议:** 这个示例符合模型上下文协议的基本要求,即接收 LLM 的查询请求,并返回相关的上下文信息。 你需要根据 LLM 的具体要求来调整请求和响应的格式。 这个示例提供了一个基本的框架,你可以根据自己的需求进行修改和扩展。 希望这个示例对你有所帮助!
MCP Server for Stock Market Analysis
MCPSS - Model Context Protocol Smart Server
MCP 智能服务器 (MCP Zhìnéng Fúwùqì)
MCP PostgreSQL Demo
Postgres MCP 服务器
Bioconda-MCP-Server
Azure Log Analytics MCP Server
使用自然语言查询 Azure Log Analytics 的 MCP 服务器
Google Search Console MCP Server
ContextBase (MCP Server)
一个 MCP 服务器,用于通过 API 存储和管理 AI 应用的用户上下文。 Or, more literally: 一个 MCP 服务器,用于通过 API 为 AI 应用存储和管理用户上下文。

Wikipedia
Mcp Math Server
ZKOM MCP Server for Cryptocurrency Prices
LND MCP Server
一个使用自然语言查询闪电网络 (LND) 节点数据的模型上下文协议 (MCP)。 (Alternatively, a more literal translation could be used, but the above is more natural in Chinese.) Literal translation: 用于使用自然语言查询闪电网络 (LND) 节点数据的模型上下文协议 (MCP)。

Github
Etherscan MCP Server
以太坊浏览器 v2 API MCP 服务器
mmnt-mcp-server
Mamont 搜索引擎的 MCP 服务器
Qdrant MCP Server
好的,这是将 "A Model Context Protocol (MCP) server implementation for RAG" 翻译成中文的几种选择,根据不同的侧重点,可以选择最合适的: * **最直接的翻译:** 用于 RAG 的模型上下文协议 (MCP) 服务器实现 * **更强调功能的翻译:** RAG 的模型上下文协议 (MCP) 服务器实现方案 * **更技术性的翻译:** RAG 的模型上下文协议 (MCP) 服务器端实现 * **更口语化的翻译:** 一个为 RAG 打造的模型上下文协议 (MCP) 服务器 **解释:** * **RAG (Retrieval-Augmented Generation):** 检索增强生成,通常直接使用英文缩写。 * **Model Context Protocol (MCP):** 模型上下文协议,通常直接使用英文缩写。 * **Server Implementation:** 服务器实现,可以翻译成服务器端实现、服务器实现方案等。 **推荐:** 我个人推荐 **用于 RAG 的模型上下文协议 (MCP) 服务器实现**,因为它简洁明了,并且保留了技术术语的英文缩写,方便专业人士理解。 最终选择哪个翻译取决于你的具体语境和目标受众。
yfinance-mcp
一个用于 yfinance 的 Python MCP 服务器 (Explanation: * **一个 (yī gè):** A * **用于 (yòng yú):** for * **yfinance:** (Transliterated as is, as it's a proper noun) * **的 (de):** 's (possessive particle) * **Python:** (Transliterated as is, as it's a proper noun) * **MCP 服务器 (MCP fú wù qì):** MCP Server)
MCP Gemini Server
一个专用服务器,将 Google 的 Gemini AI 模型封装在模型上下文协议 (MCP) 接口中,从而允许其他 LLM 和兼容 MCP 的系统通过标准化工具访问 Gemini 的内容生成、函数调用、聊天和文件处理等功能。
Mcp_server

Zionfhe_mcp_server
AgentMCP: The Universal System for AI Agent Collaboration
为 Grupa.AI 多智能体协作网络 (MACNET) 打造的 MCPAgent,内置模型上下文协议 (MCP) 功能。