发现优秀的 MCP 服务器
通过 MCP 服务器扩展您的代理能力,拥有 16,399 个能力。
PostgREST
这是一个用于 PostgREST 的 MCP 服务器。它允许 LLM 通过 PostgREST 对 Postgres 数据库执行数据库查询和操作。此服务器可与 Supabase 项目(使用 PostgREST)和独立的 PostgREST 服务器一起使用。
Marvel MCP
漫威开发者API的MCP服务器,用于与角色和漫画数据进行交互。
MCP-RQuest
一个模型上下文协议服务器,使 Claude 和其他大型语言模型能够发起带有逼真浏览器指纹的 HTTP 请求,绕过常见的反爬虫措施,并以更自然的方式与网站交互。
MCP Server Proto-OKN
A Model Context Protocol server that provides tools for querying SPARQL endpoints, with specialized support for Proto-OKN knowledge graphs hosted on the FRINK platform.
Compresto MCP
A Model Context Protocol server that provides AI assistants with real-time data about Compresto's file compression app usage statistics, including total users, processed files, and total size reduced.
Claude Desktop Transport Bridge
一个 Stdio MCP 服务器,提供连接到使用其他传输协议的服务器的桥梁。
Remote MCP Server on Cloudflare
Watchtower DAP Windows Debugging
Enables step-through debugging for C#, Node.js/TypeScript, Python, and Dart applications on Windows through a unified MCP interface. Acts as a bridge between MCP clients and various debug adapters, providing consistent debugging workflows with breakpoints, variable inspection, and process attachment capabilities.
ghas-mcp-server
镜子 (jìng zi)
Tiny Chat
这是一个具有聊天功能的LLM应用程序,它具有使用RAG的聊天功能、数据库和MCP服务器功能。UI专为日本用户设计。
🧠 Model Context Protocol (MCP)
好的,这是使用 Langchain MCP Adapters 和 Ollama 实现 MCP 的演示: **标题:使用 Langchain MCP Adapters 和 Ollama 实现 MCP 的演示** **简介:** 本演示展示了如何使用 Langchain MCP Adapters 和 Ollama 来实现 MCP(多通道处理)。MCP 是一种技术,它允许您使用多个通道(例如,文本、图像、音频)来处理数据。这可以提高准确性和效率。 **先决条件:** * 已安装 Python 3.7 或更高版本 * 已安装 Langchain * 已安装 Ollama * 已安装 Langchain MCP Adapters **安装:** ```bash pip install langchain pip install ollama pip install langchain-mcp-adapters ``` **代码:** ```python from langchain_mcp_adapters import MultiChannelProcessor from langchain.llms import Ollama from langchain.chains import LLMChain from langchain.prompts import PromptTemplate # 1. 定义你的通道。 # 在这个例子中,我们将使用两个通道:文本和图像。 channels = [ { "name": "text", "type": "text", }, { "name": "image", "type": "image", }, ] # 2. 创建一个多通道处理器。 mcp = MultiChannelProcessor(channels=channels) # 3. 定义你的提示模板。 # 这个提示模板将用于处理文本通道。 text_prompt_template = """ 你是一个有用的助手。 请回答以下问题: {question} """ text_prompt = PromptTemplate( input_variables=["question"], template=text_prompt_template, ) # 4. 定义你的语言模型。 # 在这个例子中,我们将使用 Ollama。 llm = Ollama(model="llama2") # 5. 创建一个 LLM 链。 text_chain = LLMChain(llm=llm, prompt=text_prompt) # 6. 将 LLM 链添加到多通道处理器。 mcp.add_channel("text", text_chain) # 7. 定义一个函数来处理图像通道。 def image_processor(image_path): """ 这个函数将处理图像通道。 Args: image_path: 图像的路径。 Returns: 图像的描述。 """ # 在这里,你可以使用任何图像处理库来处理图像。 # 在这个例子中,我们将使用 PIL 库。 from PIL import Image import pytesseract # 打开图像。 image = Image.open(image_path) # 使用 pytesseract 来提取图像中的文本。 text = pytesseract.image_to_string(image) # 返回图像的描述。 return text # 8. 将图像处理器添加到多通道处理器。 mcp.add_channel("image", image_processor) # 9. 创建一个输入。 input_data = { "text": { "question": "什么是 Langchain?", }, "image": { "image_path": "image.png", }, } # 10. 处理输入。 output = mcp.process(input_data) # 11. 打印输出。 print(output) ``` **解释:** 1. **定义通道:** 首先,我们定义了两个通道:文本和图像。每个通道都有一个名称和一个类型。 2. **创建多通道处理器:** 接下来,我们创建了一个多通道处理器。多通道处理器负责处理来自不同通道的数据。 3. **定义提示模板:** 我们定义了一个提示模板,用于处理文本通道。提示模板是一个字符串,它包含一个或多个占位符。占位符将被输入数据替换。 4. **定义语言模型:** 我们定义了一个语言模型。语言模型是一个可以生成文本的模型。在这个例子中,我们使用 Ollama。 5. **创建 LLM 链:** 我们创建了一个 LLM 链。LLM 链是一个将提示模板和语言模型连接在一起的链。 6. **将 LLM 链添加到多通道处理器:** 我们将 LLM 链添加到多通道处理器。这告诉多通道处理器使用 LLM 链来处理文本通道。 7. **定义图像处理器:** 我们定义了一个图像处理器。图像处理器是一个可以处理图像的函数。 8. **将图像处理器添加到多通道处理器:** 我们将图像处理器添加到多通道处理器。这告诉多通道处理器使用图像处理器来处理图像通道。 9. **创建输入:** 我们创建了一个输入。输入是一个字典,它包含每个通道的数据。 10. **处理输入:** 我们处理输入。多通道处理器将使用 LLM 链和图像处理器来处理输入数据。 11. **打印输出:** 我们打印输出。输出是一个字典,它包含每个通道的处理结果。 **结论:** 本演示展示了如何使用 Langchain MCP Adapters 和 Ollama 来实现 MCP。MCP 是一种强大的技术,它可以提高准确性和效率。 **注意:** * 您需要将 `image.png` 替换为实际的图像文件。 * 您需要根据您的需要修改提示模板和图像处理器。 * 您可以使用任何语言模型来代替 Ollama。 希望这个演示对您有所帮助!
MCP Servers
一个 Node.js 和 TypeScript 服务器项目,提供了一个简单的入门示例,使用 Express.js Web 服务器,并支持热重载、测试和模块化结构。
MCP Server for Asana
这个服务器实现允许 AI 助手与 Asana 的 API 交互,使用户能够通过自然语言请求来管理任务、项目、工作区和评论。
Vercel MCP Adapter
Enables real-time communication between applications and AI models using the Model Context Protocol, supporting features like custom tools and multiple transport options for Next.js applications.
Metabase MCP Server
Enables LLMs to interact with Metabase instances through 33 tools for querying cards, dashboards, databases, collections, and executing SQL queries against your Metabase installation.
SAP Business One MCP Server
Enables interaction with SAP Business One API through Azure Container Apps with VNet connectivity. Provides secure access to SAP data and operations through natural language interface.
Writer MCP
A Model Context Protocol server that manages character knowledge and relationships for creative writing projects, offering semantic search and AI-powered analysis.
TodoList MCP Server
Enables full management of ToDoList (.tdl) XML files with CRUD operations, hierarchical task support, and advanced filtering. Maintains compatibility with the ToDoList desktop application while allowing programmatic task management.
PDF2MD MCP Server
An MCP server that converts PDF files to Markdown format using AI sampling capabilities, supporting both local files and URLs with incremental conversion features.
Browser Automation MCP Server
一个模型上下文协议(MCP)服务器,为 Claude 和其他 MCP 兼容的 AI 助手提供浏览器自动化功能。
Mcp Server
Code Index MCP
Handwriting OCR MCP Server
启用 MCP 客户端与手写 OCR 服务的集成,允许用户上传图像和 PDF 文档,检查处理状态,并以 Markdown 格式检索 OCR 结果。
ExpressJS MCP
Exposes Express.js API endpoints as MCP tools, preserving existing schemas and authentication behavior. Supports streaming responses and can be mounted directly to existing Express apps or run as a standalone gateway.
Remote MCP Server on Cloudflare
MCP Chain of Draft Server 🧠
镜子 (jìng zi)
MCP Advanced Reasoning Server
一个模型上下文协议服务器,通过蒙特卡洛树搜索、束搜索、R1 Transformer 和混合推理方法等高级推理能力来增强 Cursor AI 中的 Claude。
RISKEN MCP Server
RISKEN 的官方 MCP 服务器
@gleanwork/mcp-server
Glean API 集成的 MCP 服务器
Unichat MCP Server
请发送使用 MCP 协议通过工具或预定义提示向 OpenAI、MistralAI、Anthropic、xAI 或 Google AI 发送请求。 需要供应商 API 密钥。