发现优秀的 MCP 服务器
通过 MCP 服务器扩展您的代理能力,拥有 14,364 个能力。
ChatData MCP 服务器
Roo MCP サーバー
🚀 MCP File System API
Okay, here's a Python code example using Flask to create a simple server that integrates with a (placeholder) LLaMA model for summarization. This example focuses on the structure and integration points. **Important considerations and placeholders are marked with comments.** ```python from flask import Flask, request, jsonify import torch # Import PyTorch #import llama # Placeholder: Replace with your actual LLaMA model import #from transformers import AutoTokenizer, AutoModelForSeq2SeqLM # Alternative for Hugging Face models app = Flask(__name__) # --- Model Loading and Setup --- # This section is CRUCIAL and needs to be adapted to your specific LLaMA model. # Option 1: If you have a custom LLaMA implementation # model = llama.load_model("path/to/your/llama/model") # Replace with your model loading function # Option 2: If you're using a Hugging Face Transformers model (e.g., a T5-based model for summarization) # model_name = "google/flan-t5-base" # Or a different summarization model # tokenizer = AutoTokenizer.from_pretrained(model_name) # model = AutoModelForSeq2SeqLM.from_pretrained(model_name) # Option 3: Placeholder - Replace with your actual model loading def load_model(): """Placeholder function to simulate loading a model.""" print("Loading model (replace with actual model loading code)") # Replace this with your actual model loading logic # For example: # model = torch.load("path/to/your/model.pth") # model.eval() # Set to evaluation mode if needed return "Dummy Model" # Replace with your actual model model = load_model() # Load the model when the app starts # --- Summarization Function --- def summarize_text(text): """ Summarizes the given text using the loaded LLaMA model. Args: text: The input text to summarize. Returns: The summarized text. """ print(f"Summarizing text: {text[:50]}...") # Print first 50 characters for debugging # --- Model Inference --- # This section needs to be adapted to your specific LLaMA model's API. # Option 1: Custom LLaMA model # summary = model.summarize(text) # Replace with your model's summarization function # Option 2: Hugging Face Transformers model # inputs = tokenizer(text, return_tensors="pt", max_length=1024, truncation=True) # summary_ids = model.generate(inputs.input_ids, max_length=150, min_length=40, length_penalty=2.0, num_beams=4, early_stopping=True) # summary = tokenizer.decode(summary_ids[0], skip_special_tokens=True) # Option 3: Placeholder - Replace with your actual model inference code summary = f"Placeholder Summary for: {text[:20]}..." # Replace with actual summarization print(f"Generated summary: {summary[:50]}...") # Print first 50 characters for debugging return summary # --- Flask API Endpoint --- @app.route('/summarize', methods=['POST']) def summarize_endpoint(): """ API endpoint for summarizing text. Expects a JSON payload with a 'text' field. """ try: data = request.get_json() text = data.get('text') if not text: return jsonify({'error': 'Missing "text" field in request'}), 400 summary = summarize_text(text) return jsonify({'summary': summary}) except Exception as e: print(f"Error during summarization: {e}") # Log the error return jsonify({'error': str(e)}), 500 # Return error message and 500 status @app.route('/health', methods=['GET']) def health_check(): """Simple health check endpoint.""" return jsonify({'status': 'ok'}) if __name__ == '__main__': app.run(debug=True, host='0.0.0.0', port=5000) # Make sure debug is False in production ``` Key improvements and explanations: * **Clear Placeholders:** The code uses `Placeholder` comments extensively to highlight where you *must* replace the example code with your actual LLaMA model integration. This is the most important part. * **Error Handling:** Includes `try...except` blocks to catch potential errors during the summarization process and return informative error messages to the client. This is crucial for debugging and production stability. * **Health Check Endpoint:** Adds a `/health` endpoint for monitoring the server's status. This is essential for deployment and monitoring. * **Model Loading:** Demonstrates how to load the model at the start of the application. This avoids reloading the model for each request, which would be very inefficient. The `load_model()` function is a placeholder that you *must* replace with your actual model loading code. * **Summarization Function:** The `summarize_text()` function encapsulates the summarization logic. This makes the code more modular and easier to test. Again, the model inference part is a placeholder. * **Flask Setup:** Sets up a basic Flask application with a `/summarize` endpoint that accepts POST requests with a JSON payload containing the text to summarize. * **JSON Handling:** Uses `request.get_json()` to properly parse the JSON payload from the request. * **Return Values:** Returns JSON responses with the summary or error message. * **Logging:** Includes `print` statements for debugging. In a production environment, you should replace these with proper logging using the `logging` module. * **Hugging Face Transformers Example:** Includes an example of how to integrate with a Hugging Face Transformers model for summarization. This is a common way to use pre-trained models. You'll need to install the `transformers` library: `pip install transformers`. * **`host='0.0.0.0'`:** This makes the server accessible from outside the local machine. Be careful when using this in production, as it can expose your server to the internet. * **`debug=True`:** This enables debug mode, which is useful for development but should be disabled in production. * **Comments:** Extensive comments explain the purpose of each section of the code. **How to Use:** 1. **Install Flask:** `pip install Flask` 2. **Install PyTorch:** `pip install torch` (if you are using PyTorch) 3. **Install Transformers:** `pip install transformers` (if you are using a Hugging Face model) 4. **Replace Placeholders:** **This is the most important step.** Replace the placeholder code with your actual LLaMA model loading and inference code. This will depend on how your LLaMA model is implemented and how you want to interact with it. 5. **Run the Application:** `python your_script_name.py` 6. **Send a Request:** Use `curl`, `Postman`, or a similar tool to send a POST request to `http://localhost:5000/summarize` with a JSON payload like this: ```json { "text": "This is a long piece of text that I want to summarize. It contains many sentences and paragraphs. The goal is to reduce the text to its most important points." } ``` **Chinese Translation of Key Comments:** ``` # --- 模型加载和设置 --- # 这部分至关重要,需要根据您特定的 LLaMA 模型进行调整。 # --- 模型推理 --- # 这部分需要根据您特定的 LLaMA 模型的 API 进行调整。 # 替换占位符:这是最重要的步骤。将占位符代码替换为您实际的 LLaMA 模型加载和推理代码。这将取决于您的 LLaMA 模型是如何实现的,以及您希望如何与它交互。 ``` **Important Considerations:** * **Model Size and Memory:** LLaMA models can be very large. Make sure you have enough memory to load and run the model. You may need to use techniques like model quantization or sharding to reduce memory usage. * **GPU Acceleration:** Using a GPU can significantly speed up the summarization process. Make sure you have a compatible GPU and that PyTorch is configured to use it. * **Security:** If you are deploying this application to a public server, be sure to implement proper security measures to protect against malicious attacks. * **Rate Limiting:** Implement rate limiting to prevent abuse of the API. * **Input Validation:** Validate the input text to prevent errors and security vulnerabilities. * **Asynchronous Processing:** For production environments, consider using asynchronous task queues (like Celery) to handle summarization requests in the background. This will prevent the Flask application from blocking while the model is processing. * **Model Updates:** Plan for how you will update the model without interrupting service. This comprehensive example provides a solid foundation for building your LLaMA-powered summarization server. Remember to carefully replace the placeholders with your actual model integration code and to address the important considerations mentioned above. Good luck!
CereBro
一个与模型无关的、用于 .Net 的 MCP 客户端-服务器
mcp-server-email MCP server
I am a language model, and I don't have an email address. I am accessed through interfaces provided by Google.
Multi-Provider MCP Server
自定义 MCP 服务器,用于与工具集成并在 n8n 实例中运行。
GIT MCP Server
一个模型上下文协议 (MCP) 服务器,为 LLM 代理提供 Git 工具,并修复了 amend 参数缓存问题。
bigquery-mcp
一个 MCP 服务器,用于帮助 AI 代理检查 BigQuery 仓库的内容。 (Or, more formally:) 一个 MCP 服务器,旨在帮助人工智能代理检查 BigQuery 数据仓库的内容。
Google Forms MCP Server with CamelAIOrg Agents Integration
Workflows MCP v0.1.0
将提示词和 MCP 服务器编排和组合成复合 MCP 工具
MCP DeepSeek 演示项目
好的,这是一个 DeepSeek 结合 MCP (Message Channel Protocol) 的最小用例,包括客户端和服务器端,用 Python 编写。这个例子展示了如何使用 DeepSeek 的模型进行简单的文本生成,并通过 MCP 在客户端和服务器之间传递请求和响应。 **注意:** 这个例子假设你已经安装了 DeepSeek 的 Python SDK 和 MCP 的相关库 (例如 `mcp` 或类似的库,具体取决于你选择的 MCP 实现)。 你需要根据你的实际环境安装这些依赖。 由于 MCP 的具体实现有很多种,这里提供的是一个概念性的例子,你需要根据你使用的 MCP 库进行调整。 **1. 服务器端 (server.py):** ```python # server.py import mcp # 假设你使用了一个名为 'mcp' 的库 import deepseek_ai # 假设你已经安装了 DeepSeek 的 SDK # DeepSeek API Key (替换成你自己的 API Key) DEEPSEEK_API_KEY = "YOUR_DEEPSEEK_API_KEY" # 初始化 DeepSeek 客户端 deepseek = deepseek_ai.DeepSeek(api_key=DEEPSEEK_API_KEY) # MCP 服务器配置 SERVER_ADDRESS = ('localhost', 8080) # 服务器地址和端口 # 处理 DeepSeek 请求的函数 def handle_deepseek_request(prompt): """ 接收 prompt,调用 DeepSeek 模型生成文本,并返回结果。 """ try: response = deepseek.completions.create( model="deepseek-chat", # 或者你想要使用的其他模型 prompt=prompt, max_tokens=50, # 限制生成文本的长度 temperature=0.7, # 控制生成文本的随机性 ) generated_text = response.choices[0].text.strip() return generated_text except Exception as e: print(f"DeepSeek API 调用失败: {e}") return "DeepSeek API 调用失败" # MCP 服务器处理函数 def handle_client_request(request): """ 接收客户端请求,调用 DeepSeek 处理函数,并返回结果。 """ try: prompt = request.decode('utf-8') # 将请求解码为字符串 print(f"收到客户端请求: {prompt}") generated_text = handle_deepseek_request(prompt) print(f"DeepSeek 生成的文本: {generated_text}") return generated_text.encode('utf-8') # 将结果编码为字节流 except Exception as e: print(f"处理客户端请求失败: {e}") return "服务器处理失败".encode('utf-8') # 创建 MCP 服务器 server = mcp.Server(SERVER_ADDRESS, handle_client_request) # 启动服务器 print(f"服务器启动,监听地址: {SERVER_ADDRESS}") server.run() ``` **2. 客户端 (client.py):** ```python # client.py import mcp # 假设你使用了一个名为 'mcp' 的库 # MCP 服务器配置 SERVER_ADDRESS = ('localhost', 8080) # 服务器地址和端口 # 客户端请求 prompt = "请用一句话描述 DeepSeek。" # 你想要发送给 DeepSeek 的 prompt # 创建 MCP 客户端 client = mcp.Client(SERVER_ADDRESS) # 发送请求并接收响应 try: response = client.send_request(prompt.encode('utf-8')) # 将 prompt 编码为字节流 generated_text = response.decode('utf-8') # 将响应解码为字符串 print(f"服务器返回的文本: {generated_text}") except Exception as e: print(f"客户端请求失败: {e}") # 关闭客户端 client.close() ``` **代码解释:** * **服务器端 (server.py):** * 导入 `mcp` 和 `deepseek_ai` 库。 * 使用你的 DeepSeek API Key 初始化 DeepSeek 客户端。 * 定义 `handle_deepseek_request` 函数,该函数接收一个 prompt,调用 DeepSeek 模型生成文本,并返回结果。 这个函数处理与 DeepSeek API 的交互。 * 定义 `handle_client_request` 函数,该函数接收客户端的请求,调用 `handle_deepseek_request` 函数处理请求,并将结果返回给客户端。 这个函数是 MCP 服务器的核心逻辑。 * 创建一个 MCP 服务器,并指定服务器地址和端口,以及处理客户端请求的函数。 * 启动服务器,开始监听客户端请求。 * **客户端 (client.py):** * 导入 `mcp` 库。 * 定义服务器地址和端口。 * 定义要发送给 DeepSeek 的 prompt。 * 创建一个 MCP 客户端,并指定服务器地址和端口。 * 发送请求给服务器,并接收服务器返回的响应。 * 将服务器返回的响应打印到控制台。 * 关闭客户端。 **运行步骤:** 1. **安装依赖:** 确保你已经安装了 `deepseek_ai` 和你选择的 MCP 库。 例如,如果 `mcp` 是一个实际存在的库,你可以使用 `pip install deepseek_ai mcp` 安装。 如果 `mcp` 只是一个占位符,你需要替换成你实际使用的 MCP 库,并安装它。 2. **替换 API Key:** 将 `server.py` 中的 `YOUR_DEEPSEEK_API_KEY` 替换成你自己的 DeepSeek API Key。 3. **运行服务器:** 在终端中运行 `python server.py`。 4. **运行客户端:** 在另一个终端中运行 `python client.py`。 **预期结果:** 客户端会向服务器发送一个 prompt,服务器会调用 DeepSeek 模型生成文本,并将生成的文本返回给客户端。客户端会将服务器返回的文本打印到控制台。 **重要注意事项:** * **MCP 实现:** 这个例子中使用了一个名为 `mcp` 的占位符库。 你需要根据你实际使用的 MCP 库进行调整。 常见的 MCP 实现包括 ZeroMQ, RabbitMQ, Redis Pub/Sub 等。 你需要选择一个适合你的需求的 MCP 实现,并根据该实现的 API 修改代码。 * **错误处理:** 这个例子包含了一些基本的错误处理,但你可以根据你的需求添加更完善的错误处理机制。 * **安全性:** 在生产环境中,你需要考虑安全性问题,例如身份验证和授权。 * **异步处理:** 如果 DeepSeek API 的调用时间较长,你可以考虑使用异步处理来提高服务器的性能。 * **模型选择:** `model="deepseek-chat"` 只是一个示例,你可以根据你的需求选择其他 DeepSeek 模型。 * **DeepSeek API Key:** 请妥善保管你的 DeepSeek API Key,不要将其泄露给他人。 这个最小用例提供了一个基本的框架,你可以根据你的实际需求进行扩展和修改。 希望这个例子能够帮助你理解如何将 DeepSeek 与 MCP 结合使用。
convex-mcp-server MCP Server
镜子 (jìng zi)
MCP Chat Demo
一个演示与模型上下文协议 (MCP) 服务器集成的示例聊天应用程序
MCP Server - VSCode Tutorial
Okay, here's a breakdown of how to build an MCP (Minecraft Coder Pack) server and use VS Code as an MCP client, translated into Chinese. I'll focus on clarity and accuracy for a Chinese-speaking audience familiar with programming concepts. **标题: 构建 MCP 服务器并使用 VS Code 作为 MCP 客户端的教程** **简介:** 本教程将指导您如何搭建一个 Minecraft Coder Pack (MCP) 服务器,并配置 Visual Studio Code (VS Code) 作为 MCP 客户端,以便进行 Minecraft Mod 开发。 MCP 提供反编译、反混淆和重新编译 Minecraft 代码的工具,使 Mod 开发更加容易。 VS Code 作为一个强大的代码编辑器,可以与 MCP 集成,提供代码补全、调试等功能。 **第一部分: 安装和配置 MCP 服务器** 1. **下载 MCP:** * **中文:** 从 MCP 的官方网站或可靠的第三方资源下载最新版本的 MCP。 确保下载的版本与您要修改的 Minecraft 版本相对应。 * **英文:** Download the latest version of MCP from the official MCP website or a reliable third-party source. Make sure the version you download corresponds to the Minecraft version you want to modify. 2. **解压 MCP:** * **中文:** 将下载的 MCP 压缩包解压到一个合适的目录。 建议创建一个专门用于 MCP 的文件夹,例如 `C:\mcp`. * **英文:** Extract the downloaded MCP archive to a suitable directory. It is recommended to create a dedicated folder for MCP, such as `C:\mcp`. 3. **配置 MCP:** * **中文:** 打开 MCP 目录下的 `mcp.cfg` 文件。 这个文件包含了 MCP 的配置信息。 * **英文:** Open the `mcp.cfg` file in the MCP directory. This file contains the MCP configuration information. * **中文:** 在 `mcp.cfg` 文件中,找到 `MinecraftVersion` 选项,并将其设置为您要修改的 Minecraft 版本。 例如: `MinecraftVersion = 1.19.2` * **英文:** In the `mcp.cfg` file, find the `MinecraftVersion` option and set it to the Minecraft version you want to modify. For example: `MinecraftVersion = 1.19.2` * **中文:** 根据您的需求,修改其他配置选项。 例如,您可以设置 `ClientPath` 和 `ServerPath` 来指定 Minecraft 客户端和服务器的路径(如果 MCP 无法自动找到它们)。 * **英文:** Modify other configuration options according to your needs. For example, you can set `ClientPath` and `ServerPath` to specify the paths to the Minecraft client and server (if MCP cannot find them automatically). 4. **运行 MCP:** * **中文:** 打开命令提示符或终端,导航到 MCP 目录。 * **英文:** Open a command prompt or terminal and navigate to the MCP directory. * **中文:** 运行 `./gradlew setupDecompWorkspace` 命令。 这个命令会下载 Minecraft 客户端和服务器,并反编译它们。 这个过程可能需要一些时间。 * **英文:** Run the `./gradlew setupDecompWorkspace` command. This command will download the Minecraft client and server and decompile them. This process may take some time. * **中文:** 运行 `./gradlew eclipse` 或 `./gradlew idea` 命令,根据您使用的 IDE 生成 Eclipse 或 IntelliJ IDEA 项目文件。 虽然我们使用 VS Code,但生成这些文件可以帮助 MCP 更好地组织代码。 * **英文:** Run the `./gradlew eclipse` or `./gradlew idea` command to generate Eclipse or IntelliJ IDEA project files, depending on the IDE you are using. Although we are using VS Code, generating these files can help MCP better organize the code. **第二部分: 配置 VS Code 作为 MCP 客户端** 1. **安装 Java Development Kit (JDK):** * **中文:** 确保您的系统上安装了 JDK。 VS Code 需要 JDK 来编译 Java 代码。 建议安装与您要修改的 Minecraft 版本兼容的 JDK 版本。 * **英文:** Make sure you have the JDK installed on your system. VS Code needs the JDK to compile Java code. It is recommended to install a JDK version compatible with the Minecraft version you want to modify. 2. **安装 VS Code 扩展:** * **中文:** 在 VS Code 中,安装以下扩展: * **Java Extension Pack:** 提供 Java 开发所需的基本功能,例如代码补全、调试等。 * **Gradle Language Support:** 提供 Gradle 构建文件的语法高亮和代码补全。 * **英文:** In VS Code, install the following extensions: * **Java Extension Pack:** Provides basic functions required for Java development, such as code completion, debugging, etc. * **Gradle Language Support:** Provides syntax highlighting and code completion for Gradle build files. 3. **导入 MCP 项目到 VS Code:** * **中文:** 在 VS Code 中,选择 "文件" -> "打开文件夹",然后选择 MCP 目录下的 `eclipse` 或 `idea` 文件夹(取决于您之前运行的 Gradle 命令)。 * **英文:** In VS Code, select "File" -> "Open Folder", and then select the `eclipse` or `idea` folder under the MCP directory (depending on the Gradle command you ran earlier). 4. **配置 VS Code 的 Java 设置:** * **中文:** 打开 VS Code 的设置 (文件 -> 首选项 -> 设置)。 * **英文:** Open VS Code settings (File -> Preferences -> Settings). * **中文:** 搜索 "java.home",并将其设置为您的 JDK 安装目录。 * **英文:** Search for "java.home" and set it to your JDK installation directory. 5. **开始 Mod 开发:** * **中文:** 现在,您可以在 VS Code 中浏览和修改 Minecraft 的源代码。 MCP 会自动处理反编译和反混淆的代码,使代码更易于理解。 * **英文:** Now you can browse and modify the Minecraft source code in VS Code. MCP automatically handles the decompiled and deobfuscated code, making the code easier to understand. * **中文:** 您可以在 `src/main/java` 目录下创建您的 Mod 类。 * **英文:** You can create your Mod classes in the `src/main/java` directory. 6. **构建和运行 Mod:** * **中文:** 在 VS Code 的终端中,导航到 MCP 目录。 * **英文:** In the VS Code terminal, navigate to the MCP directory. * **中文:** 运行 `./gradlew build` 命令来构建您的 Mod。 * **英文:** Run the `./gradlew build` command to build your Mod. * **中文:** 构建完成后,您的 Mod 将位于 `build/libs` 目录下。 * **英文:** After the build is complete, your Mod will be located in the `build/libs` directory. * **中文:** 将您的 Mod 文件复制到 Minecraft 的 `mods` 文件夹中。 * **英文:** Copy your Mod file to the Minecraft `mods` folder. * **中文:** 启动 Minecraft 并测试您的 Mod。 * **英文:** Launch Minecraft and test your Mod. **注意事项:** * **中文:** MCP 的配置和使用可能比较复杂,请仔细阅读 MCP 的文档和教程。 * **英文:** MCP configuration and usage can be complex, please read the MCP documentation and tutorials carefully. * **中文:** 确保您的 JDK 版本与 Minecraft 版本兼容。 * **英文:** Make sure your JDK version is compatible with the Minecraft version. * **中文:** 如果遇到问题,请查阅 MCP 的论坛或社区寻求帮助。 * **英文:** If you encounter problems, consult the MCP forum or community for help. * **中文:** Gradle 构建过程可能需要下载大量的依赖项,请确保您的网络连接稳定。 * **英文:** The Gradle build process may require downloading a large number of dependencies, please ensure your network connection is stable. **总结:** 本教程介绍了如何搭建 MCP 服务器并使用 VS Code 作为 MCP 客户端。 通过这种方式,您可以更方便地进行 Minecraft Mod 开发。 希望本教程对您有所帮助! This translation aims to be clear, accurate, and helpful for Chinese-speaking developers. It includes explanations of the purpose of each step and provides context for better understanding. Good luck with your modding!
🤖 mcp-ollama-beeai
一个极简的自主代理应用,利用 BeeAI 框架,通过多个 MCP 服务器工具与 OLLAMA 模型进行交互。
mcp-diagram
Diagramming 的 MCP 服务器
MCP Servers
模型上下文协议 (MCP) 服务器集合及设置说明

Mcp Use
MCP サーバー/クライアント サンプル
CosmWasm MCP Server
一个模型上下文协议(MCP)服务器,它提供与 CosmWasm 智能合约交互的工具。
PayAI MCP Server
PayAI 网络的模型上下文协议服务器!将 PayAI 插入 Claude Desktop、Cursor 或您最喜欢的 MCP 主机!
MCP Key Server
Okay, here's a translation of "MCP server for storing API keys and providing npm installation" into Chinese, along with some nuances and options depending on the specific context: **Option 1 (Most General):** * **Chinese:** 用于存储 API 密钥并提供 npm 安装的 MCP 服务器 * **Pinyin:** Yòng yú chǔcún API mìyào bìng tígōng npm ānzhuāng de MCP fúwùqì * **Explanation:** * `用于 (yòng yú)`: Used for / For the purpose of * `存储 (chǔcún)`: To store / Storage * `API 密钥 (API mìyào)`: API keys * `并 (bìng)`: And * `提供 (tígōng)`: To provide / Providing * `npm 安装 (npm ānzhuāng)`: npm installation * `的 (de)`: (A possessive particle, linking the description to the server) * `MCP 服务器 (MCP fúwùqì)`: MCP server **Option 2 (More Emphasis on Functionality):** * **Chinese:** 一个 MCP 服务器,用于 API 密钥存储和 npm 安装服务 * **Pinyin:** Yī gè MCP fúwùqì, yòng yú API mìyào chǔcún hé npm ānzhuāng fúwù * **Explanation:** * `一个 (yī gè)`: A / One * `MCP 服务器 (MCP fúwùqì)`: MCP server * `用于 (yòng yú)`: Used for * `API 密钥存储 (API mìyào chǔcún)`: API key storage * `和 (hé)`: And * `npm 安装服务 (npm ānzhuāng fúwù)`: npm installation service **Option 3 (If "MCP" is a specific project or system name, and you want to keep it as is):** * **Chinese:** 用于存储 API 密钥并提供 npm 安装的 MCP 服务 * **Pinyin:** Yòng yú chǔcún API mìyào bìng tígōng npm ānzhuāng de MCP fúwù * **Explanation:** * `用于 (yòng yú)`: Used for / For the purpose of * `存储 (chǔcún)`: To store / Storage * `API 密钥 (API mìyào)`: API keys * `并 (bìng)`: And * `提供 (tígōng)`: To provide / Providing * `npm 安装 (npm ānzhuāng)`: npm installation * `的 (de)`: (A possessive particle, linking the description to the server) * `MCP 服务 (MCP fúwù)`: MCP service **Which option is best depends on the context:** * If you're simply describing the server's function, Option 1 is a good general choice. * If you want to emphasize that it *provides a service*, Option 2 is better. * If "MCP" is a well-known term within your audience, Option 3 might be suitable. I hope this helps! Let me know if you have any other questions.
VseGPT MCP Servers
MCP 服务器 для VseGPT (MCP Server for VseGPT)
MCP SSE Server
Portkey MCP Server
镜子 (jìng zi)
MCP Server Tester 🔌
MCP Servers for Cursor IDE

Cursorshare
(Unofficial) linkding-mcp-server
非官方 linkding MCP 服务器
TextToolkit: Your Ultimate Text Transformation and Formatting Solution 🚀
高级 MCP 服务器,提供全面的文本转换和格式化工具。TextToolkit 提供超过 40 种专门的实用程序,用于大小写转换、编码/解码、格式化、分析和文本操作 - 所有这些都可以在您的 AI 助手工作流程中直接访问。