Arcs-MCP
A multi-platform one-click article publishing tool for MCP Service.
README
<h1 align="center">欢迎来到 Arcs-MCP 👋</h1>
支持MCP服务的多平台一键发布工具
📖 概述
如果有将文章分享发布到多个平台的需求,可以借助这个工具来简化这一流程。该发布工具支持MCP服务,可以让用户使用自然语言处理并实现文章在多个平台的一键式发布。
用户可以描述他们想要实现的效果,例如,“将这篇文章发布到CSDN上。”——工具会自动将文章发布到指定的发布源平台上。
🔑 前置条件
- 兼容 MCP 的 AI 客户端:Claude 桌面版、Gemini CLI、Cherry Studio 或其他 MCP 客户端。
- uv:一个现代的 Python 包安装器和解析器。
📦 安装与配置
1. 安装 uv 环境
这里推荐使用 Cherry Studio 客户端来配置该工具的MCP服务,操作和环境配置会更加友好。Cherry Studio 还自带了 uv 环境的部署功能,用户可以一键完成安装。
也可选择手动独立安装 uv 环境,使用命令行完成部署:
macOS & Linux
# 使用 `curl` 下载脚本并通过 `sh` 执行:
curl -LsSf https://astral.sh/uv/install.sh | sh
# 如果系统没有 `curl`,可以使用 `wget`:
wget -qO- https://astral.sh/uv/install.sh | sh
Windows
# 使用 `irm` 下载脚本并通过 `iex` 执行:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
2. 克隆仓库
- 克隆仓库并切换至该目录:
git clone https://github.com/Cyanty/Arcs-MCP.git
cd Arcs-MCP
- 复制环境配置文件:
cp .env.example .env
Tips:部分平台支持 API 发布文章,可通过
.env文件配置所需平台密钥。
- 构建并运行服务:
uv run --directory your/path/to/Arcs-MCP server.py
3. 配置 MCP 客户端
配置您的 MCP 客户端,这里我们以 Cherry Studio 的AI客户端工具为例。
- 在
添加服务器按钮中点击快速创建选项,选择 可流式传输的HTTP (streamableHttp) 类型 ,并添加如下URL:
http://127.0.0.1:8001/submit/mcp
快速创建配置如下图所示:

或者 采用JSON配置,
- 在
添加服务器按钮中点击从JSON导入选项,将以下内容添加到配置文件中:
{
"mcpServers": {
"SubmitArticleServer": {
"type": "streamableHttp",
"url": "http://localhost:8001/submit/mcp"
}
}
}
🚀 使用方法
Tips:在开始之前,请确保您的 MCP 客户端已成功完成上述配置。
可用工具
可用工具一览:

工具说明:
help_open_browser:帮助用户打开一次浏览器(MCP发布浏览器),例如:"请帮我打开浏览器",用户可通过此浏览器进行账号登录等操作。
submit_verify_login:校验所有发布源平台的账号登录状态,例如:"请帮我验证所有平台的登录状态",用户可通过此方法验证各平台账号登录状态及个人令牌/密钥是否有效。
get_submit_toggle_switch:获取当前各发布源的发布开关状态,例如:"请告诉我当前各平台的发布开关状态",发布开关用于为用户标识哪些平台是可以进行发布文章操作的。
update_submit_toggle_switch:更新各发布源平台的发布开关状态,例如:"请开启CSDN平台的发布开关",开启平台发布开关可用于发布文章到指定的平台。
submit_article_content_prompt:发布文章的文本内容到各平台,例如:"将文章的文本内容发布到CSDN上",等待发布操作完成,就可以在发布的平台上看到自己的文章了。
submit_article_file_to_platforms:通过文章的文件路径发布到各平台,例如:"帮我把/your/path/to/file-absolute-path这篇文章发布到CSDN上",等待发布操作完成,就可以在发布的平台上看到自己的文章了。
发布文章示例
Tips:在发布之前,请确保您的 MCP发布浏览器及个人令牌/密钥 -> 处于登录或可用状态。
使用 Cherry Studio 通过聊天的方式发布一篇文章到 CSDN 上。
在新建聊天窗口中,点击 MCP服务器,选中之前配置的 SubmitArticleServer MCP服务:

在聊天框中输入,比如:"帮我把这篇文章发布到CSDN上。文章的本地路径为:C:\Users\Administrator\Desktop\发布一篇文章测试.md",等待大模型返回发布结果:

该发布工具同时支持以文本内容的方式进行发布,不过由于集成的AI客户端工具处理方式差异,大模型可能会读取文章全部内容作为上下文,比较耗费Token,耗时也较长。这里推荐使用 以文件路径的方式 发布文章。
以文本内容的方式发布,聊天输入示例如下:

⚡ 发布实现
该发布工具为MCP服务提供支持,通过整合各平台发布接口和自动化技术实现高效发布:
-
统一入口:支持从.md文件直接导入内容,适配MCP服务实现异步并行发布
-
图片处理:自动转换外链图片为平台兼容的图片链接地址
-
发布方式:根据不同平台特性采用API调用或浏览器自动化两种策略
目前支持的发布平台(可自定义横向扩展其他平台)
| 平台 | 发布方式 |
|---|---|
| CSDN | 自动化发布 |
| 掘金 | 草稿API + 自动化发布 |
| 博客园 | Metaweblog API |
| 微信公众号 | MD格式美化 + 开放API |
| 知乎 | MD格式美化 + 自动化发布 |
| Halo自建站 | API/令牌认证 |
| ...... |
除此之外,工具还提供了一个发布操作的web页面,用户可在浏览器页面上进行操作,上传本地.md格式文件实现各平台文章的发布。
如:访问 http://127.0.0.1:8001 ,发布页面如下:

🤝 欢迎贡献
欢迎贡献!无论是修复 bug、添加新功能还是改进文档,都可以随时提交 Pull Request 或打开一个 issue。
📝 License
本项目遵循 Apache License 2.0 协议,完整文本见 LICENSE 文件。
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。