发现优秀的 MCP 服务器

通过 MCP 服务器扩展您的代理能力,拥有 25,829 个能力。

全部25,829
TOOL4LM

TOOL4LM

A multi-tool MCP server that enhances local LLMs with web search, document reading, scholarly research, Wikipedia access, and calculator functions. Provides comprehensive tools for information retrieval and computation without requiring API keys by default.

mcp-vscode-template

mcp-vscode-template

VS Code 的 MCP 服务器模板

agent-passport-system-mcp

agent-passport-system-mcp

Cryptographic identity and trust protocol for AI agents. 38 MCP tools across 8 protocol layers: Ed25519 identity, delegation chains, values compliance, signed communication, policy engine, task coordination, cross-layer integration, and agentic commerce. 264 tests passing.

Marketo MCP Server

Marketo MCP Server

An MCP server that exposes Adobe Marketo REST API operations as tools for AI assistants and MCP clients. It enables comprehensive management of Marketo assets including leads, activities, emails, smart campaigns, and programs.

Promethean OS MCP

Promethean OS MCP

A unified MCP server with composable tools for GitHub operations, file management, shell execution, kanban boards, Discord messaging, and package management. Features role-based security, HTTP/stdio transports, and a web-based development UI.

GPT Research MCP Server

GPT Research MCP Server

Enables AI-powered web research using OpenAI's GPT-5.1 with built-in web search capabilities, returning comprehensive results with citations and source references.

RAGmonsters Custom PostgreSQL MCP Server

RAGmonsters Custom PostgreSQL MCP Server

A domain-specific MCP server that provides optimized API access to the RAGmonsters fictional monster dataset, enabling more efficient and secure interactions compared to generic SQL queries.

mcp-google-sheets

mcp-google-sheets

一个模型上下文协议服务器,与 Google Drive 和 Google Sheets 集成,使用户能够通过自然语言命令创建、读取、更新和管理电子表格。

Claude Code Multi-Process MCP Server

Claude Code Multi-Process MCP Server

Enables asynchronous and parallel execution of Claude Code tasks across multiple sessions, allowing users to start background tasks and continue working immediately without blocking.

Clover MCP Server

Clover MCP Server

使 AI 代理能够通过安全的 OAuth 身份验证 MCP 服务器访问和交互 Clover 商户数据、库存和订单。

leak-secure-mcp

leak-secure-mcp

Enterprise-grade MCP (Model Context Protocol) server for detecting secrets and sensitive information in GitHub repositories. Scans for 35+ types of secrets including API keys, passwords, tokens, and credentials with production-ready reliability features.

Azure Cosmos DB MCP Server

Azure Cosmos DB MCP Server

一个服务器,使像 Claude 这样的大型语言模型 (LLM) 能够通过自然语言查询与 Azure Cosmos DB 数据库进行交互,充当 AI 助手和数据库系统之间的翻译器。

Semantic Context MCP

Semantic Context MCP

Enables AI assistants to save, load, and search conversation context with AI-powered summarization and auto-tagging. Demonstrates semantic intent patterns and hexagonal architecture for maintainable AI-assisted development.

mcp-clickhouse-long-running

mcp-clickhouse-long-running

mcp-clickhouse-long-running

Data Visualization MCP Server

Data Visualization MCP Server

镜子 (jìng zi)

BuyICT MCP Server

BuyICT MCP Server

Provides access to Australian Government ICT procurement opportunities from BuyICT, enabling users to search contracts across multiple marketplaces, view detailed opportunity information, and explore available procurement channels.

ChromaDB MCP Server

ChromaDB MCP Server

Enables GitHub Copilot to query local ChromaDB instances to retrieve relevant documents and context for AI conversations. It allows users to search vector collections using natural language tools directly within VS Code.

Wikipedia MCP Image Crawler

Wikipedia MCP Image Crawler

一个维基百科图片搜索工具。它遵循知识共享许可协议,并通过 Claude Desktop/Cline 在你的项目中使用这些图片。

Apple MCP

Apple MCP

一个工具集合,使 Claude AI 和 Cursor 能够通过模型上下文协议访问原生 macOS 应用程序,例如“信息”、“备忘录”、“通讯录”、“邮件”、“提醒事项”、“日历”和“地图”。

MCP Prompt Server

MCP Prompt Server

一个基于模型上下文协议的服务器,为代码审查和 API 文档生成等任务提供预定义的提示模板,从而在 Cursor/Windsurf 编辑器中实现更高效的工作流程。

mcp-weather-server

mcp-weather-server

好的,这是提供天气数据给 LLM 的一个示例模型上下文协议服务器: ```python import asyncio import json import os from typing import Any, Dict, List, Optional from fastapi import FastAPI, HTTPException from pydantic import BaseModel # 模拟天气数据 WEATHER_DATA = { "San Francisco": {"temperature": 15, "condition": "Cloudy"}, "New York": {"temperature": 22, "condition": "Sunny"}, "London": {"temperature": 18, "condition": "Rainy"}, "Tokyo": {"temperature": 25, "condition": "Clear"}, } class ContextRequest(BaseModel): """ LLM 请求上下文信息的请求体。 """ query: str location: Optional[str] = None # 可选的位置信息 class ContextResponse(BaseModel): """ 服务器返回给 LLM 的上下文信息。 """ context: Dict[str, Any] app = FastAPI() @app.post("/context") async def get_context(request: ContextRequest) -> ContextResponse: """ 根据 LLM 的查询请求,提供上下文信息。 """ print(f"Received query: {request.query}") print(f"Received location: {request.location}") location = request.location if not location: # 如果没有提供位置,则尝试从查询中提取 # 这是一个非常简单的示例,实际应用中需要更复杂的 NLP 处理 if "San Francisco" in request.query: location = "San Francisco" elif "New York" in request.query: location = "New York" elif "London" in request.query: location = "London" elif "Tokyo" in request.query: location = "Tokyo" else: raise HTTPException(status_code=400, detail="Location not specified and could not be inferred from query.") if location not in WEATHER_DATA: raise HTTPException(status_code=404, detail=f"Weather data not found for location: {location}") weather = WEATHER_DATA[location] context = { "location": location, "temperature": weather["temperature"], "condition": weather["condition"], } print(f"Returning context: {context}") return ContextResponse(context=context) if __name__ == "__main__": import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000) ``` **代码解释:** 1. **导入必要的库:** - `asyncio`: 用于异步操作。 - `json`: 用于处理 JSON 数据。 - `os`: 用于操作系统相关的功能。 - `typing`: 用于类型提示。 - `fastapi`: 用于创建 API。 - `pydantic`: 用于数据验证和序列化。 2. **模拟天气数据:** - `WEATHER_DATA`: 一个字典,存储了不同城市的天气数据。 这只是一个模拟数据,实际应用中需要从外部 API 或数据库获取。 3. **定义数据模型:** - `ContextRequest`: 定义了 LLM 请求上下文信息的请求体,包含 `query` (LLM 的查询) 和可选的 `location` (位置信息)。 - `ContextResponse`: 定义了服务器返回给 LLM 的上下文信息,包含一个 `context` 字典。 4. **创建 FastAPI 应用:** - `app = FastAPI()`: 创建一个 FastAPI 应用实例。 5. **定义 `/context` 接口:** - `@app.post("/context")`: 定义一个 POST 请求的接口,路径为 `/context`。 - `async def get_context(request: ContextRequest) -> ContextResponse:`: 定义处理请求的异步函数。 - `request: ContextRequest`: 接收请求体,并将其解析为 `ContextRequest` 对象。 - `-> ContextResponse`: 指定函数返回 `ContextResponse` 对象。 6. **处理请求逻辑:** - **打印接收到的查询和位置信息:** 用于调试和日志记录。 - **获取位置信息:** - 首先尝试从 `request.location` 中获取位置信息。 - 如果 `request.location` 为空,则尝试从 `request.query` 中提取位置信息。 这是一个非常简单的示例,实际应用中需要使用更复杂的 NLP 技术来提取位置信息。 - 如果无法获取位置信息,则返回一个 HTTP 400 错误。 - **获取天气数据:** - 检查 `location` 是否在 `WEATHER_DATA` 中。 - 如果 `location` 不在 `WEATHER_DATA` 中,则返回一个 HTTP 404 错误。 - 从 `WEATHER_DATA` 中获取天气数据。 - **构建上下文信息:** - 创建一个 `context` 字典,包含 `location`、`temperature` 和 `condition`。 - **返回上下文信息:** - 创建一个 `ContextResponse` 对象,并将 `context` 字典赋值给它。 - 返回 `ContextResponse` 对象。 7. **运行 FastAPI 应用:** - `if __name__ == "__main__":`: 确保代码只在直接运行脚本时执行,而不是在被导入为模块时执行。 - `uvicorn.run(app, host="0.0.0.0", port=8000)`: 使用 Uvicorn 运行 FastAPI 应用。 - `host="0.0.0.0"`: 允许从任何 IP 地址访问应用。 - `port=8000`: 指定应用监听的端口为 8000。 **如何运行:** 1. **安装依赖:** ```bash pip install fastapi uvicorn pydantic ``` 2. **运行脚本:** ```bash python your_script_name.py ``` 3. **测试接口:** 可以使用 `curl` 或其他 HTTP 客户端来测试接口。 例如: ```bash curl -X POST -H "Content-Type: application/json" -d '{"query": "What is the weather in San Francisco?", "location": "San Francisco"}' http://localhost:8000/context ``` 或者,如果省略 `location`,服务器会尝试从 `query` 中推断: ```bash curl -X POST -H "Content-Type: application/json" -d '{"query": "What is the weather in San Francisco?"}' http://localhost:8000/context ``` **重要说明:** * **真实数据源:** 这个示例使用模拟的天气数据。 在实际应用中,你需要使用真实的天气 API (例如 OpenWeatherMap, AccuWeather) 或数据库来获取数据。 * **NLP 处理:** 从查询中提取位置信息的部分非常简单。 在实际应用中,你需要使用更复杂的 NLP 技术 (例如命名实体识别) 来准确地提取位置信息。 * **错误处理:** 这个示例只包含基本的错误处理。 在实际应用中,你需要添加更完善的错误处理机制,例如日志记录和重试机制。 * **安全性:** 在生产环境中,你需要考虑安全性问题,例如身份验证和授权。 * **可扩展性:** 如果需要处理大量的请求,你需要考虑使用负载均衡和缓存等技术来提高可扩展性。 * **模型上下文协议:** 这个示例符合模型上下文协议的基本要求,即接收 LLM 的查询请求,并返回相关的上下文信息。 你需要根据 LLM 的具体要求来调整请求和响应的格式。 这个示例提供了一个基本的框架,你可以根据自己的需求进行修改和扩展。 希望这个示例对你有所帮助!

Community Research MCP

Community Research MCP

Searches real developer solutions from Stack Overflow, Reddit, GitHub issues, and forums to find battle-tested fixes and workarounds for specific programming problems. Bypasses AI guessing by finding actual community discussions where developers have already solved your exact issue.

eRegulations MCP Server

eRegulations MCP Server

一个模型上下文协议(Model Context Protocol)服务器的实现,该实现提供结构化的、对人工智能友好的方式来访问电子法规(eRegulations)数据,从而使人工智能模型更容易回答用户关于行政程序的问题。

Lara Translate MCP Server

Lara Translate MCP Server

一个MCP服务器,通过Lara Translate API提供机器翻译功能,具有语言检测和在多种语言对之间进行上下文感知翻译的能力。

DVMCP: Data Vending Machine Context Protocol

DVMCP: Data Vending Machine Context Protocol

DVMCP 是一个桥接实现,它将模型上下文协议 (MCP) 服务器连接到 Nostr 的数据自动售卖机 (DVM) 生态系统。

Beeper MCP Note Server

Beeper MCP Note Server

一个简单的 MCP 服务器,用于创建和管理笔记,并支持总结功能。 (Alternatively, if you want to emphasize the "for" part:) 一个简单的 MCP 服务器,**旨在**创建和管理笔记,并支持总结功能。

n8n MCP Server

n8n MCP Server

Provides seamless integration between MCP-compatible AI assistants and n8n workflow automation, enabling intelligent management and automation of n8n workflows through natural language.

My First MCP Server

My First MCP Server

我的第一个 MCP 服务器

Code Execution MCP

Code Execution MCP

Enables efficient AI agent operations through sandboxed Python code execution with progressive tool discovery, PII tokenization, and skills persistence, achieving up to 98.7% token reduction by processing data in a sandbox rather than in context.

MCP Server My Lark Doc

MCP Server My Lark Doc