发现优秀的 MCP 服务器

通过 MCP 服务器扩展您的代理能力,拥有 10,038 个能力。

研究与数据1,246
MCP with Gemini Tutorial

MCP with Gemini Tutorial

使用 Google Gemini 构建 MCP 服务器

Kolada MCP Server

Kolada MCP Server

用于 Kolada 的 MCP 服务器。

test-mcp-server

test-mcp-server

MCP Server Reddit

MCP Server Reddit

镜子 (jìng zi)

Data Visualization MCP Server

Data Visualization MCP Server

镜子 (jìng zi)

Deep Research MCP Server 🚀

Deep Research MCP Server 🚀

使用 Gemini 的 MCP 深度研究服务器创建研究型 AI 代理

Lara Translate MCP Server

Lara Translate MCP Server

一个MCP服务器,通过Lara Translate API提供机器翻译功能,具有语言检测和在多种语言对之间进行上下文感知翻译的能力。

Wikipedia MCP Image Crawler

Wikipedia MCP Image Crawler

一个维基百科图片搜索工具。它遵循知识共享许可协议,并通过 Claude Desktop/Cline 在你的项目中使用这些图片。

Awesome MCP Server CN

Awesome MCP Server CN

That's a good translation! It's accurate and concise.

mcp-weather-server

mcp-weather-server

好的,这是提供天气数据给 LLM 的一个示例模型上下文协议服务器: ```python import asyncio import json import os from typing import Any, Dict, List, Optional from fastapi import FastAPI, HTTPException from pydantic import BaseModel # 模拟天气数据 WEATHER_DATA = { "San Francisco": {"temperature": 15, "condition": "Cloudy"}, "New York": {"temperature": 22, "condition": "Sunny"}, "London": {"temperature": 18, "condition": "Rainy"}, "Tokyo": {"temperature": 25, "condition": "Clear"}, } class ContextRequest(BaseModel): """ LLM 请求上下文信息的请求体。 """ query: str location: Optional[str] = None # 可选的位置信息 class ContextResponse(BaseModel): """ 服务器返回给 LLM 的上下文信息。 """ context: Dict[str, Any] app = FastAPI() @app.post("/context") async def get_context(request: ContextRequest) -> ContextResponse: """ 根据 LLM 的查询请求,提供上下文信息。 """ print(f"Received query: {request.query}") print(f"Received location: {request.location}") location = request.location if not location: # 如果没有提供位置,则尝试从查询中提取 # 这是一个非常简单的示例,实际应用中需要更复杂的 NLP 处理 if "San Francisco" in request.query: location = "San Francisco" elif "New York" in request.query: location = "New York" elif "London" in request.query: location = "London" elif "Tokyo" in request.query: location = "Tokyo" else: raise HTTPException(status_code=400, detail="Location not specified and could not be inferred from query.") if location not in WEATHER_DATA: raise HTTPException(status_code=404, detail=f"Weather data not found for location: {location}") weather = WEATHER_DATA[location] context = { "location": location, "temperature": weather["temperature"], "condition": weather["condition"], } print(f"Returning context: {context}") return ContextResponse(context=context) if __name__ == "__main__": import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000) ``` **代码解释:** 1. **导入必要的库:** - `asyncio`: 用于异步操作。 - `json`: 用于处理 JSON 数据。 - `os`: 用于操作系统相关的功能。 - `typing`: 用于类型提示。 - `fastapi`: 用于创建 API。 - `pydantic`: 用于数据验证和序列化。 2. **模拟天气数据:** - `WEATHER_DATA`: 一个字典,存储了不同城市的天气数据。 这只是一个模拟数据,实际应用中需要从外部 API 或数据库获取。 3. **定义数据模型:** - `ContextRequest`: 定义了 LLM 请求上下文信息的请求体,包含 `query` (LLM 的查询) 和可选的 `location` (位置信息)。 - `ContextResponse`: 定义了服务器返回给 LLM 的上下文信息,包含一个 `context` 字典。 4. **创建 FastAPI 应用:** - `app = FastAPI()`: 创建一个 FastAPI 应用实例。 5. **定义 `/context` 接口:** - `@app.post("/context")`: 定义一个 POST 请求的接口,路径为 `/context`。 - `async def get_context(request: ContextRequest) -> ContextResponse:`: 定义处理请求的异步函数。 - `request: ContextRequest`: 接收请求体,并将其解析为 `ContextRequest` 对象。 - `-> ContextResponse`: 指定函数返回 `ContextResponse` 对象。 6. **处理请求逻辑:** - **打印接收到的查询和位置信息:** 用于调试和日志记录。 - **获取位置信息:** - 首先尝试从 `request.location` 中获取位置信息。 - 如果 `request.location` 为空,则尝试从 `request.query` 中提取位置信息。 这是一个非常简单的示例,实际应用中需要使用更复杂的 NLP 技术来提取位置信息。 - 如果无法获取位置信息,则返回一个 HTTP 400 错误。 - **获取天气数据:** - 检查 `location` 是否在 `WEATHER_DATA` 中。 - 如果 `location` 不在 `WEATHER_DATA` 中,则返回一个 HTTP 404 错误。 - 从 `WEATHER_DATA` 中获取天气数据。 - **构建上下文信息:** - 创建一个 `context` 字典,包含 `location`、`temperature` 和 `condition`。 - **返回上下文信息:** - 创建一个 `ContextResponse` 对象,并将 `context` 字典赋值给它。 - 返回 `ContextResponse` 对象。 7. **运行 FastAPI 应用:** - `if __name__ == "__main__":`: 确保代码只在直接运行脚本时执行,而不是在被导入为模块时执行。 - `uvicorn.run(app, host="0.0.0.0", port=8000)`: 使用 Uvicorn 运行 FastAPI 应用。 - `host="0.0.0.0"`: 允许从任何 IP 地址访问应用。 - `port=8000`: 指定应用监听的端口为 8000。 **如何运行:** 1. **安装依赖:** ```bash pip install fastapi uvicorn pydantic ``` 2. **运行脚本:** ```bash python your_script_name.py ``` 3. **测试接口:** 可以使用 `curl` 或其他 HTTP 客户端来测试接口。 例如: ```bash curl -X POST -H "Content-Type: application/json" -d '{"query": "What is the weather in San Francisco?", "location": "San Francisco"}' http://localhost:8000/context ``` 或者,如果省略 `location`,服务器会尝试从 `query` 中推断: ```bash curl -X POST -H "Content-Type: application/json" -d '{"query": "What is the weather in San Francisco?"}' http://localhost:8000/context ``` **重要说明:** * **真实数据源:** 这个示例使用模拟的天气数据。 在实际应用中,你需要使用真实的天气 API (例如 OpenWeatherMap, AccuWeather) 或数据库来获取数据。 * **NLP 处理:** 从查询中提取位置信息的部分非常简单。 在实际应用中,你需要使用更复杂的 NLP 技术 (例如命名实体识别) 来准确地提取位置信息。 * **错误处理:** 这个示例只包含基本的错误处理。 在实际应用中,你需要添加更完善的错误处理机制,例如日志记录和重试机制。 * **安全性:** 在生产环境中,你需要考虑安全性问题,例如身份验证和授权。 * **可扩展性:** 如果需要处理大量的请求,你需要考虑使用负载均衡和缓存等技术来提高可扩展性。 * **模型上下文协议:** 这个示例符合模型上下文协议的基本要求,即接收 LLM 的查询请求,并返回相关的上下文信息。 你需要根据 LLM 的具体要求来调整请求和响应的格式。 这个示例提供了一个基本的框架,你可以根据自己的需求进行修改和扩展。 希望这个示例对你有所帮助!

MCP Server for Stock Market Analysis

MCP Server for Stock Market Analysis

MCPSS - Model Context Protocol Smart Server

MCPSS - Model Context Protocol Smart Server

MCP 智能服务器 (MCP Zhìnéng Fúwùqì)

MCP PostgreSQL Demo

MCP PostgreSQL Demo

Postgres MCP 服务器

Bioconda-MCP-Server

Bioconda-MCP-Server

Azure Log Analytics MCP Server

Azure Log Analytics MCP Server

使用自然语言查询 Azure Log Analytics 的 MCP 服务器

Google Search Console MCP Server

Google Search Console MCP Server

ContextBase (MCP Server)

ContextBase (MCP Server)

一个 MCP 服务器,用于通过 API 存储和管理 AI 应用的用户上下文。 Or, more literally: 一个 MCP 服务器,用于通过 API 为 AI 应用存储和管理用户上下文。

Wikipedia

Wikipedia

Mcp Math Server

Mcp Math Server

ZKOM MCP Server for Cryptocurrency Prices

ZKOM MCP Server for Cryptocurrency Prices

LND MCP Server

LND MCP Server

一个使用自然语言查询闪电网络 (LND) 节点数据的模型上下文协议 (MCP)。 (Alternatively, a more literal translation could be used, but the above is more natural in Chinese.) Literal translation: 用于使用自然语言查询闪电网络 (LND) 节点数据的模型上下文协议 (MCP)。

Github

Github

Etherscan MCP Server

Etherscan MCP Server

以太坊浏览器 v2 API MCP 服务器

mmnt-mcp-server

mmnt-mcp-server

Mamont 搜索引擎的 MCP 服务器

Qdrant MCP Server

Qdrant MCP Server

好的,这是将 "A Model Context Protocol (MCP) server implementation for RAG" 翻译成中文的几种选择,根据不同的侧重点,可以选择最合适的: * **最直接的翻译:** 用于 RAG 的模型上下文协议 (MCP) 服务器实现 * **更强调功能的翻译:** RAG 的模型上下文协议 (MCP) 服务器实现方案 * **更技术性的翻译:** RAG 的模型上下文协议 (MCP) 服务器端实现 * **更口语化的翻译:** 一个为 RAG 打造的模型上下文协议 (MCP) 服务器 **解释:** * **RAG (Retrieval-Augmented Generation):** 检索增强生成,通常直接使用英文缩写。 * **Model Context Protocol (MCP):** 模型上下文协议,通常直接使用英文缩写。 * **Server Implementation:** 服务器实现,可以翻译成服务器端实现、服务器实现方案等。 **推荐:** 我个人推荐 **用于 RAG 的模型上下文协议 (MCP) 服务器实现**,因为它简洁明了,并且保留了技术术语的英文缩写,方便专业人士理解。 最终选择哪个翻译取决于你的具体语境和目标受众。

yfinance-mcp

yfinance-mcp

一个用于 yfinance 的 Python MCP 服务器 (Explanation: * **一个 (yī gè):** A * **用于 (yòng yú):** for * **yfinance:** (Transliterated as is, as it's a proper noun) * **的 (de):** 's (possessive particle) * **Python:** (Transliterated as is, as it's a proper noun) * **MCP 服务器 (MCP fú wù qì):** MCP Server)

MCP Gemini Server

MCP Gemini Server

一个专用服务器,将 Google 的 Gemini AI 模型封装在模型上下文协议 (MCP) 接口中,从而允许其他 LLM 和兼容 MCP 的系统通过标准化工具访问 Gemini 的内容生成、函数调用、聊天和文件处理等功能。

Mcp_server

Mcp_server

Zionfhe_mcp_server

Zionfhe_mcp_server

AgentMCP: The Universal System for AI Agent Collaboration

AgentMCP: The Universal System for AI Agent Collaboration

为 Grupa.AI 多智能体协作网络 (MACNET) 打造的 MCPAgent,内置模型上下文协议 (MCP) 功能。