发现优秀的 MCP 服务器

通过 MCP 服务器扩展您的代理能力,拥有 12,316 个能力。

研究与数据1,246
OpenRouter Web Search MCP Server

OpenRouter Web Search MCP Server

一个使用 OpenRouter 提供网页搜索功能的 MCP 服务器:在线

Awesome MCPs

Awesome MCPs

一套很棒的模型上下文协议 (MCP) 工具集合

Nano Currency MCP Server

Nano Currency MCP Server

从 AI 代理/LLM 发送 Nano 货币

Bilibili MCP

Bilibili MCP

Northeastern University Calendar MCP Server

Northeastern University Calendar MCP Server

302_basic_mcp

302_basic_mcp

提供搜索、代码运行、计算器和网页解析等基本功能。

Task Portal System: A Self-Evolving General Problem-Solving Agency

Task Portal System: A Self-Evolving General Problem-Solving Agency

MCP-Server 工具使用项目概念,适用于 Claude 和兼容的 AI。

Streamlit LangChain MCP Server GitHub

Streamlit LangChain MCP Server GitHub

Kotlin Crypto Price Spring MCP Server Demo

Kotlin Crypto Price Spring MCP Server Demo

Kotlin Spring AI MCP 服务器演示。从币安获取加密货币定价。 (Kotlin Spring AI MCP fúwùqì yǎnshì. Cóng Bì'ān huòqǔ jiāmì huòbì dìngjià.)

MCP Math Gmail Client

MCP Math Gmail Client

特工通过 MCP 服务器解决数学任务并将结果通过电子邮件发送出去。

Spurs Blog Mcp Server

Spurs Blog Mcp Server

一个为“Pounding The Rock”博客设立的MCP服务器,该博客提供对圣安东尼奥马刺队的全面报道。

🧠 Model Context Protocol (MCP)

🧠 Model Context Protocol (MCP)

好的,这是使用 Langchain MCP Adapters 和 Ollama 实现 MCP 的演示: **标题:使用 Langchain MCP Adapters 和 Ollama 实现 MCP 的演示** **简介:** 本演示展示了如何使用 Langchain MCP Adapters 和 Ollama 来实现 MCP(多通道处理)。MCP 是一种技术,它允许您使用多个通道(例如,文本、图像、音频)来处理数据。这可以提高准确性和效率。 **先决条件:** * 已安装 Python 3.7 或更高版本 * 已安装 Langchain * 已安装 Ollama * 已安装 Langchain MCP Adapters **安装:** ```bash pip install langchain pip install ollama pip install langchain-mcp-adapters ``` **代码:** ```python from langchain_mcp_adapters import MultiChannelProcessor from langchain.llms import Ollama from langchain.chains import LLMChain from langchain.prompts import PromptTemplate # 1. 定义你的通道。 # 在这个例子中,我们将使用两个通道:文本和图像。 channels = [ { "name": "text", "type": "text", }, { "name": "image", "type": "image", }, ] # 2. 创建一个多通道处理器。 mcp = MultiChannelProcessor(channels=channels) # 3. 定义你的提示模板。 # 这个提示模板将用于处理文本通道。 text_prompt_template = """ 你是一个有用的助手。 请回答以下问题: {question} """ text_prompt = PromptTemplate( input_variables=["question"], template=text_prompt_template, ) # 4. 定义你的语言模型。 # 在这个例子中,我们将使用 Ollama。 llm = Ollama(model="llama2") # 5. 创建一个 LLM 链。 text_chain = LLMChain(llm=llm, prompt=text_prompt) # 6. 将 LLM 链添加到多通道处理器。 mcp.add_channel("text", text_chain) # 7. 定义一个函数来处理图像通道。 def image_processor(image_path): """ 这个函数将处理图像通道。 Args: image_path: 图像的路径。 Returns: 图像的描述。 """ # 在这里,你可以使用任何图像处理库来处理图像。 # 在这个例子中,我们将使用 PIL 库。 from PIL import Image import pytesseract # 打开图像。 image = Image.open(image_path) # 使用 pytesseract 来提取图像中的文本。 text = pytesseract.image_to_string(image) # 返回图像的描述。 return text # 8. 将图像处理器添加到多通道处理器。 mcp.add_channel("image", image_processor) # 9. 创建一个输入。 input_data = { "text": { "question": "什么是 Langchain?", }, "image": { "image_path": "image.png", }, } # 10. 处理输入。 output = mcp.process(input_data) # 11. 打印输出。 print(output) ``` **解释:** 1. **定义通道:** 首先,我们定义了两个通道:文本和图像。每个通道都有一个名称和一个类型。 2. **创建多通道处理器:** 接下来,我们创建了一个多通道处理器。多通道处理器负责处理来自不同通道的数据。 3. **定义提示模板:** 我们定义了一个提示模板,用于处理文本通道。提示模板是一个字符串,它包含一个或多个占位符。占位符将被输入数据替换。 4. **定义语言模型:** 我们定义了一个语言模型。语言模型是一个可以生成文本的模型。在这个例子中,我们使用 Ollama。 5. **创建 LLM 链:** 我们创建了一个 LLM 链。LLM 链是一个将提示模板和语言模型连接在一起的链。 6. **将 LLM 链添加到多通道处理器:** 我们将 LLM 链添加到多通道处理器。这告诉多通道处理器使用 LLM 链来处理文本通道。 7. **定义图像处理器:** 我们定义了一个图像处理器。图像处理器是一个可以处理图像的函数。 8. **将图像处理器添加到多通道处理器:** 我们将图像处理器添加到多通道处理器。这告诉多通道处理器使用图像处理器来处理图像通道。 9. **创建输入:** 我们创建了一个输入。输入是一个字典,它包含每个通道的数据。 10. **处理输入:** 我们处理输入。多通道处理器将使用 LLM 链和图像处理器来处理输入数据。 11. **打印输出:** 我们打印输出。输出是一个字典,它包含每个通道的处理结果。 **结论:** 本演示展示了如何使用 Langchain MCP Adapters 和 Ollama 来实现 MCP。MCP 是一种强大的技术,它可以提高准确性和效率。 **注意:** * 您需要将 `image.png` 替换为实际的图像文件。 * 您需要根据您的需要修改提示模板和图像处理器。 * 您可以使用任何语言模型来代替 Ollama。 希望这个演示对您有所帮助!

Jina AI MCP Tools

Jina AI MCP Tools

一个与 Jina AI Search Foundation API 集成的模型上下文协议 (MCP) 服务器。

mcp-server-cve-knowledge-base

mcp-server-cve-knowledge-base

MCP 服务器,提供 CVE 的实时知识库

Enkrypt AI MCP Server

Enkrypt AI MCP Server

镜子 (jìng zi)

🔗 Unified MCP Tool Graph: A Neo4j-Powered API Intelligence Layer for Dynamic Tool Retrieval

🔗 Unified MCP Tool Graph: A Neo4j-Powered API Intelligence Layer for Dynamic Tool Retrieval

与其将 100 多个工具一股脑地塞进模型的提示中,并期望它能明智地选择,不如使用统一的 MCP 工具图,它能为你的 LLM 提供结构、清晰度和相关性。它可以解决工具混淆问题,防止无限循环,并实现模块化、智能的代理工作流程。

Nature Remo MCP server

Nature Remo MCP server

MultiServerMCP

MultiServerMCP

latest-news-mcp-server

latest-news-mcp-server

MCP (模型上下文协议) 服务器,用于获取最新新闻

cal2prompt

cal2prompt

✨ 获取你的日程安排(Google 日历),并将其作为单个 LLM 提示输出,可以选择 MCP 服务器模式。

Shield MCP

Shield MCP

用于 MCP 服务器在开发阶段的日志记录、深度调试和清理的防护盾。

Lamda

Lamda

🤖 最强大的安卓RPA框架,下一代移动自动化机器人。

PDF Search for Zed

PDF Search for Zed

一个用于 Zed 的 MCP 服务器扩展,用于从 PDF 文件中检索相关片段。

WeiWanMcpServer

WeiWanMcpServer

私人 Minecraft 服务器 (Sīrén Minecraft fúwùqì)

Token Revoke MCP

Token Revoke MCP

一个 MCP 服务器,用于跨多个区块链检查和撤销 ERC-20 代币授权。

A sample MCP server for understanding cloud spend

A sample MCP server for understanding cloud spend

针对 AWS Cost Explorer 和 CloudWatch 日志的 MCP (Most Common Practices) Or, more formally: 针对 AWS Cost Explorer 和 CloudWatch Logs 的最佳实践 (zhēn duì AWS Cost Explorer hé CloudWatch Logs de zuì jiā shí jiàn)

Azure Kusto MCP Server

Azure Kusto MCP Server

用于 Azure Kusto 的 MCP 服务器 (Yòng yú Azure Kusto de MCP fúwùqì)

Weather MCP Server

Weather MCP Server

MCP-NAVER-Map

MCP-NAVER-Map

Naver Map MCP 服务器 (Naver Map MCP fúwùqì)

weather-mcp

weather-mcp

一个获取天气的测试 MCP 服务器 (Yī gè huòqǔ tiānqì de cèshì MCP fúwùqì) This translates to: "A test MCP server for getting weather information."