AiryLark MCP Translation Server

AiryLark MCP Translation Server

一个 ModelContextProtocol 服务器,提供高质量的翻译服务,采用三阶段翻译工作流程(分析、分段翻译、全文审查),支持多种语言,并与 Claude 和 OpenAI 兼容的模型集成。

Category
访问服务器

README

AiryLark MCP 专业翻译服务器

License: Custom

这是AiryLark项目的ModelContextProtocol(MCP)服务器模块,提供专业级高精度翻译服务接口。MCP是一种标准协议,允许智能助手与外部服务进行结构化交互,使复杂翻译能力可直接被Claude等大型AI模型调用。

专业翻译优势

  • 三阶段翻译流程:分析规划、分段翻译、全文审校,确保专业领域文档的翻译质量
  • 领域术语识别:自动识别专业文本领域,提取关键术语并确保术语一致性
  • 质量评估系统:提供全面翻译质量评估,包括准确性、流畅性、术语使用和风格一致性
  • 多语言支持:支持中文、英文、日语、韩语、法语、德语等多种语言互译
  • 风格与格式保持:根据文本类型自动调整翻译风格,保持原文的专业性和表达方式

适用场景

  • 技术文档翻译:软件文档、API文档、技术规范等专业内容翻译
  • 学术论文翻译:确保学术术语准确,保持学术文体风格
  • 法律文件翻译:保证法律术语准确性和表述精确性
  • 医疗资料翻译:专业医学术语翻译和医疗文献本地化
  • 金融报告翻译:准确翻译金融术语和复杂财务概念

安装

  1. 确保已安装Node.js (v18+)和npm

  2. 安装依赖:

cd mcp-server
npm install
  1. 配置环境变量:

创建.env文件或设置以下环境变量:

# 翻译API配置
TRANSLATION_API_KEY=your_api_key
TRANSLATION_MODEL=your_model_name
TRANSLATION_BASE_URL=your_api_base_url

# 服务器配置
PORT=3031  # MCP服务器端口,可选,默认3031

使用方法

开发环境

启动开发服务器:

npm run dev

生产环境

构建并启动服务器:

npm run build
npm start

MCP工具接口

服务器提供以下MCP标准工具:

1. 翻译工具 (translate_text)

专业级文本翻译,自动适应不同领域和文体风格。

参数:

  • text: 需要翻译的源文本
  • target_language: 目标语言代码 (如'zh'、'en'、'ja'等)
  • source_language: (可选)源语言代码
  • high_quality: (可选)是否启用高精度翻译流程,默认为true

使用场景:

  • 设置high_quality=true用于专业文档、学术论文等对精度要求高的场景
  • 设置high_quality=false用于非正式内容或需要快速翻译的场景

2. 翻译质量评估工具 (evaluate_translation)

对翻译结果进行全面质量评估,提供详细反馈。

参数:

  • original_text: 原始文本
  • translated_text: 翻译后的文本
  • detailed_feedback: (可选)是否提供详细反馈,默认为false

评估指标:

  • 准确性:译文是否准确传达原文意思
  • 流畅性:译文是否符合目标语言表达习惯
  • 术语使用:专业术语翻译的准确性和一致性
  • 风格一致性:译文是否保持原文风格

资源接口

  • supported_languages: 支持的语言列表
    • URI: languages://list

与AI助手集成

本服务器设计为与支持MCP协议的AI助手无缝集成,使AI能够提供专业级翻译服务:

import { Client } from "@modelcontextprotocol/sdk/client/index.js";
import { SSEClientTransport } from "@modelcontextprotocol/sdk/client/sse.js";

// 连接到MCP服务器
const transport = new SSEClientTransport("http://localhost:3031");
const client = new Client(
  { name: "assistant-client", version: "1.0.0" },
  { capabilities: { tools: {} } }
);
await client.connect(transport);

// 调用专业翻译工具
const result = await client.callTool({
  name: "translate_text",
  arguments: {
    text: "The mitochondrion is the powerhouse of the cell.",
    target_language: "zh",
    high_quality: true
  }
});

console.log(result.content[0].text);

Claude Chat与Cursor等MCP客户端配置

在支持MCP协议的AI助手应用中,可通过以下方式配置与AiryLark翻译服务器的连接:

Cursor配置

在Cursor设置或配置文件中添加以下MCP服务器配置:

{
  "mcpServers": {
    "airylark-translation": {
      "url": "https://airylark-mcp.vcorp.ai/sse"
    }
  }
}

Claude Chat配置

在Claude Chat中,可以通过以下步骤开启MCP服务器连接:

  1. 进入设置页面
  2. 找到"开发者设置"或"外部工具"选项
  3. 添加新的MCP服务器,填写名称与URL
  4. 服务器URL填写 https://airylark-mcp.vcorp.ai/sse

配置完成后,AI助手便可以使用"translate_text"和"evaluate_translation"工具,轻松处理各类专业文档翻译需求。

服务器配置与运行

AiryLark MCP服务器支持多种部署和运行方式,以下是常用配置方法:

Docker部署

使用官方发布的Docker镜像是最简单的部署方式:

# 拉取官方镜像
docker pull wizdy/airylark-mcp-server

# 运行容器
docker run -p 3031:3031 --env-file .env -d wizdy/airylark-mcp-server

Docker Compose部署

使用项目提供的docker-compose.yml文件,配合官方镜像可以更方便地管理服务:

# docker-compose.yml 示例
services:
  mcp-server:
    image: wizdy/airylark-mcp-server
    ports:
      - "${MCP_PORT}:${MCP_PORT}"
    environment:
      - NODE_ENV=production
      - PORT=${MCP_PORT}
      - TRANSLATION_API_KEY=${TRANSLATION_API_KEY}
      - TRANSLATION_MODEL=${TRANSLATION_MODEL}
      - TRANSLATION_BASE_URL=${TRANSLATION_BASE_URL}
    restart: always

运行服务:

# 设置环境变量或创建.env文件
export MCP_PORT=3031
export TRANSLATION_API_KEY=your_api_key
export TRANSLATION_MODEL=your_model_name
export TRANSLATION_BASE_URL=your_api_base_url

# 启动服务
docker-compose up -d

服务器配置示例

您也可以使用类似以下的配置方式来定义和启动MCP服务器:

{
  "mcpServers": {
    "airylark-translation": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "-e",
        "TRANSLATION_API_KEY",
        "-e",
        "TRANSLATION_MODEL",
        "-e",
        "TRANSLATION_BASE_URL",
        "wizdy/airylark-mcp-server"
      ],
      "env": {
        "TRANSLATION_API_KEY": "<YOUR_API_KEY>",
        "TRANSLATION_MODEL": "<YOUR_MODEL>",
        "TRANSLATION_BASE_URL": "<YOUR_API_URL>"
      }
    }
  }
}

这种配置方式适用于需要在应用内直接管理MCP服务器生命周期的场景。

许可证

本项目使用与AiryLark主项目相同的定制许可证,详见LICENSE文件。


# AiryLark MCP 专业翻译服务器

[![License: Custom](https://img.shields.io/badge/License-Custom%20(Apache%202.0%20with%20restrictions)-blue.svg)](../LICENSE)

这是 AiryLark 项目的 ModelContextProtocol (MCP) 服务器模块,提供专业级高精度翻译服务接口。MCP 是一种标准协议,允许智能助手与外部服务进行结构化交互,使复杂翻译能力可直接被 Claude 等大型 AI 模型调用。

## 专业翻译优势

- **三阶段翻译流程**:分析规划、分段翻译、全文审校,确保专业领域文档的翻译质量
- **领域术语识别**:自动识别专业文本领域,提取关键术语并确保术语一致性
- **质量评估系统**:提供全面翻译质量评估,包括准确性、流畅性、术语使用和风格一致性
- **多语言支持**:支持中文、英文、日语、韩语、法语、德语等多种语言互译
- **风格与格式保持**:根据文本类型自动调整翻译风格,保持原文的专业性和表达方式

## 适用场景

- **技术文档翻译**:软件文档、API 文档、技术规范等专业内容翻译
- **学术论文翻译**:确保学术术语准确,保持学术文体风格
- **法律文件翻译**:保证法律术语准确性和表述精确性
- **医疗资料翻译**:专业医学术语翻译和医疗文献本地化
- **金融报告翻译**:准确翻译金融术语和复杂财务概念

## 安装

1. 确保已安装 Node.js (v18+) 和 npm

2. 安装依赖:

```bash
cd mcp-server
npm install
  1. 配置环境变量:

创建 .env 文件或设置以下环境变量:

# 翻译 API 配置
TRANSLATION_API_KEY=your_api_key
TRANSLATION_MODEL=your_model_name
TRANSLATION_BASE_URL=your_api_base_url

# 服务器配置
PORT=3031  # MCP 服务器端口,可选,默认 3031

使用方法

开发环境

启动开发服务器:

npm run dev

生产环境

构建并启动服务器:

npm run build
npm start

MCP 工具接口

服务器提供以下 MCP 标准工具:

1. 翻译工具 (translate_text)

专业级文本翻译,自动适应不同领域和文体风格。

参数:

  • text: 需要翻译的源文本
  • target_language: 目标语言代码 (如 'zh'、'en'、'ja' 等)
  • source_language: (可选) 源语言代码
  • high_quality: (可选) 是否启用高精度翻译流程,默认为 true

使用场景:

  • 设置 high_quality=true 用于专业文档、学术论文等对精度要求高的场景
  • 设置 high_quality=false 用于非正式内容或需要快速翻译的场景

2. 翻译质量评估工具 (evaluate_translation)

对翻译结果进行全面质量评估,提供详细反馈。

参数:

  • original_text: 原始文本
  • translated_text: 翻译后的文本
  • detailed_feedback: (可选) 是否提供详细反馈,默认为 false

评估指标:

  • 准确性:译文是否准确传达原文意思
  • 流畅性:译文是否符合目标语言表达习惯
  • 术语使用:专业术语翻译的准确性和一致性
  • 风格一致性:译文是否保持原文风格

资源接口

  • supported_languages: 支持的语言列表
    • URI: languages://list

与 AI 助手集成

本服务器设计为与支持 MCP 协议的 AI 助手无缝集成,使 AI 能够提供专业级翻译服务:

import { Client } from "@modelcontextprotocol/sdk/client/index.js";
import { SSEClientTransport } from "@modelcontextprotocol/sdk/client/sse.js";

// 连接到 MCP 服务器
const transport = new SSEClientTransport("http://localhost:3031");
const client = new Client(
  { name: "assistant-client", version: "1.0.0" },
  { capabilities: { tools: {} } }
);
await client.connect(transport);

// 调用专业翻译工具
const result = await client.callTool({
  name: "translate_text",
  arguments: {
    text: "The mitochondrion is the powerhouse of the cell.",
    target_language: "zh",
    high_quality: true
  }
});

console.log(result.content[0].text);

Claude Chat 与 Cursor 等 MCP 客户端配置

在支持 MCP 协议的 AI 助手应用中,可通过以下方式配置与 AiryLark 翻译服务器的连接:

Cursor 配置

在 Cursor 设置或配置文件中添加以下 MCP 服务器配置:

{
  "mcpServers": {
    "airylark-translation": {
      "url": "https://airylark-mcp.vcorp.ai/sse"
    }
  }
}

Claude Chat 配置

在 Claude Chat 中,可以通过以下步骤开启 MCP 服务器连接:

  1. 进入设置页面
  2. 找到 "开发者设置" 或 "外部工具" 选项
  3. 添加新的 MCP 服务器,填写名称与 URL
  4. 服务器 URL 填写 https://airylark-mcp.vcorp.ai/sse

配置完成后,AI 助手便可以使用 "translate_text" 和 "evaluate_translation" 工具,轻松处理各类专业文档翻译需求。

服务器配置与运行

AiryLark MCP 服务器支持多种部署和运行方式,以下是常用配置方法:

Docker 部署

使用官方发布的 Docker 镜像是最简单的部署方式:

# 拉取官方镜像
docker pull wizdy/airylark-mcp-server

# 运行容器
docker run -p 3031:3031 --env-file .env -d wizdy/airylark-mcp-server

Docker Compose 部署

使用项目提供的 docker-compose.yml 文件,配合官方镜像可以更方便地管理服务:

# docker-compose.yml 示例
services:
  mcp-server:
    image: wizdy/airylark-mcp-server
    ports:
      - "${MCP_PORT}:${MCP_PORT}"
    environment:
      - NODE_ENV=production
      - PORT=${MCP_PORT}
      - TRANSLATION_API_KEY=${TRANSLATION_API_KEY}
      - TRANSLATION_MODEL=${TRANSLATION_MODEL}
      - TRANSLATION_BASE_URL=${TRANSLATION_BASE_URL}
    restart: always

运行服务:

# 设置环境变量或创建 .env 文件
export MCP_PORT=3031
export TRANSLATION_API_KEY=your_api_key
export TRANSLATION_MODEL=your_model_name
export TRANSLATION_BASE_URL=your_api_base_url

# 启动服务
docker-compose up -d

服务器配置示例

您也可以使用类似以下的配置方式来定义和启动 MCP 服务器:

{
  "mcpServers": {
    "airylark-translation": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "-e",
        "TRANSLATION_API_KEY",
        "-e",
        "TRANSLATION_MODEL",
        "-e",
        "TRANSLATION_BASE_URL",
        "wizdy/airylark-mcp-server"
      ],
      "env": {
        "TRANSLATION_API_KEY": "<YOUR_API_KEY>",
        "TRANSLATION_MODEL": "<YOUR_MODEL>",
        "TRANSLATION_BASE_URL": "<YOUR_API_URL>"
      }
    }
  }
}

这种配置方式适用于需要在应用内直接管理 MCP 服务器生命周期的场景。

许可证

本项目使用与 AiryLark 主项目相同的定制许可证,详见 LICENSE 文件。

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选