Translation MCP Server

Translation MCP Server

An AI-driven text translation service supporting 20+ languages, based on the Model Context Protocol (MCP) for integration with Claude Desktop and other MCP-compatible applications.

Category
访问服务器

README

Translation MCP Server

一个基于 Model Context Protocol (MCP) 的文本翻译服务,支持 OpenAI 和兼容 OpenAI API 的模型。

功能特性

  • 🌍 多语言支持: 支持 20+ 种主要语言之间的翻译
  • 🤖 AI 驱动: 基于 OpenAI 兼容的大语言模型
  • 📄 长文本处理: 自动分块处理大文档,突破 API 长度限制
  • 🔍 语言检测: 自动识别输入文本的语言
  • 🔌 MCP 协议: 标准化接口,易于集成到支持 MCP 的应用中
  • 异步处理: 基于 asyncio 的高性能异步架构
  • 🛠️ 灵活配置: 支持自定义模型和 API 端点

支持的语言

语言代码 语言名称 语言代码 语言名称
en English zh 中文
ja 日本語 ko 한국어
es Español fr Français
de Deutsch it Italiano
pt Português ru Русский
ar العربية hi हिन्दी
th ไทย vi Tiếng Việt
id Bahasa Indonesia ms Bahasa Melayu
tl Filipino tr Türkçe
pl Polski nl Nederlands

安装

环境要求

  • Python 3.10+
  • OpenAI API 密钥(或兼容的 API 服务)

安装依赖

# 克隆项目
git clone <repository-url>
cd translation_mcp

# 使用 uv 安装依赖(推荐)
uv sync

# 或使用 pip 安装
pip install -e .

环境配置

创建 .env 文件并配置必要的环境变量:

# OpenAI API 配置
OPENAI_API_KEY=your_api_key_here
OPENAI_BASE_URL=https://api.openai.com/v1  # 可选,默认为 OpenAI 官方 API
OPENAI_MODEL=gpt-3.5-turbo  # 可选,默认模型

使用方法

作为 MCP 服务器使用

本项目是一个 MCP (Model Context Protocol) 服务器,需要在支持 MCP 的客户端中配置使用,而不是直接运行。

在 Claude Desktop 中配置

在 Claude Desktop 的配置文件中添加:

{
  "mcpServers": {
    "translation": {
      "command": "python",
      "args": ["/path/to/translation_mcp.py"],
      "env": {
        "OPENAI_API_KEY": "your_api_key_here"
      }
    }
  }
}

使用 uvx 运行(推荐)

首先构建分发包:

# 构建 wheel 包
uv build

# 查看生成的 whl 文件
ls dist/

然后在 Claude Desktop 配置中使用:

{
  "mcpServers": {
    "translation": {
      "command": "uvx",
      "args": ["/path/to/translation_mcp/dist/translation_mcp-0.1.0-py3-none-any.whl"],
      "env": {
        "OPENAI_API_KEY": "your_api_key_here"
      }
    }
  }
}

或者直接从 PyPI 安装(如果已发布):

{
  "mcpServers": {
    "translation": {
      "command": "uvx",
      "args": ["translation-mcp"],
      "env": {
        "OPENAI_API_KEY": "your_api_key_here"
      }
    }
  }
}

开发和测试

# 直接运行进行测试
python translation_mcp.py

# 运行测试套件
python test_mcp.py

MCP 工具

服务器提供以下 MCP 工具:

1. translate_text

翻译普通文本到指定语言。

参数:

  • text (string, 必需): 要翻译的文本
  • target_language (string, 必需): 目标语言代码
  • source_language (string, 可选): 源语言代码,不指定则自动检测

示例:

{
  "text": "Hello, world!",
  "target_language": "zh",
  "source_language": "en"
}

2. detect_language

检测文本的语言。

参数:

  • text (string, 必需): 要检测语言的文本

示例:

{
  "text": "Bonjour le monde!"
}

3. translate_long_text

翻译长文本,自动分块处理。

参数:

  • text (string, 必需): 要翻译的长文本
  • target_language (string, 必需): 目标语言代码
  • source_language (string, 可选): 源语言代码
  • max_chunk_size (integer, 可选): 每个文本块的最大字符数,默认 2000

示例:

{
  "text": "很长的文本内容...",
  "target_language": "en",
  "max_chunk_size": 1500
}

MCP 资源

translation://languages

获取所有支持的语言列表,包含语言代码和名称。

API 响应格式

成功响应

{
  "translated_text": "翻译后的文本",
  "source_language": "en",
  "target_language": "zh",
  "model": "gpt-3.5-turbo",
  "success": true
}

错误响应

{
  "error": "错误信息",
  "success": false
}

长文本翻译响应

{
  "translated_text": "完整的翻译文本",
  "source_language": "auto-detected",
  "target_language": "zh",
  "chunks_count": 3,
  "success": true
}

配置选项

环境变量

变量名 描述 默认值
OPENAI_API_KEY OpenAI API 密钥 必需
OPENAI_BASE_URL API 基础 URL https://api.openai.com/v1
OPENAI_MODEL 默认模型 gpt-3.5-turbo

自定义模型

支持使用兼容 OpenAI API 的其他服务:

# 使用本地模型服务
OPENAI_BASE_URL=http://localhost:8000/v1
OPENAI_API_KEY=your_local_api_key

# 使用其他云服务
OPENAI_BASE_URL=https://your-service.com/v1
OPENAI_API_KEY=your_service_api_key

开发

项目结构

translation_mcp/
├── translation_mcp.py    # 主程序文件
├── pyproject.toml       # 项目配置和依赖
├── uv.lock             # 锁定的依赖版本
├── MANIFEST.in         # 打包配置
├── .env                # 环境变量配置
├── dist/               # 构建输出目录
└── README.md          # 项目文档

构建和分发

# 构建项目
uv build

# 发布到 PyPI(可选)
uv publish

核心组件

  • OpenAITranslator: 翻译服务核心类
  • TranslationMCPServer: MCP 服务器实现
  • 异步处理: 基于 asyncio 的异步架构
  • 错误处理: 完善的异常处理机制

许可证

MIT License

贡献

欢迎提交 Issue 和 Pull Request!

更新日志

v0.1.0

  • 初始版本发布
  • 支持基础文本翻译
  • 支持语言检测
  • 支持长文本分块翻译
  • MCP 协议集成

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选