Together AI Image Generation MCP Server
使用 Flux 1.1 专业的 together.ai API 的 MCP-Server 来生成图像。
mystique920
README
⚠️ 预览版本: 此 MCP 服务器正在积极开发中。预计会有大量的控制台日志记录和潜在的更改。目前不建议用于生产环境。
重要提示:
- 在此分支中,生成的图像不会本地存储。它们仅在您的浏览器缓存中可用,并且 Together AI 会快速从其服务器中删除生成的图像。 强烈建议您在生成后立即保存任何想要保留的图像。
- 对于需要永久本地存储生成图像的用户,有一个单独的分支:
v0.2.0
(LibreChat 独占) — 此版本仅支持 LibreChat,并将所有生成的图像永久存储在您的本地计算机上。
Together AI 图像生成 MCP 服务器
一个使用 Together AI API 提供图像生成功能的模型上下文协议 (MCP) 服务器。
前提条件
- Node.js >= 18.0.0
- 有效的 Together AI API 密钥(请参阅下面的设置指南,了解如何获取和配置)
- 重要提示: 访问 Flux 1.1 Pro 模型需要启用 Tier 2 的 Together AI 帐户。仅有有效的 API 密钥是不够的。
安装(独立 / 通用)
-
克隆存储库:
# 如果是 fork 或新项目,请考虑重命名存储库 git clone <your-repository-url> cd <your-repository-directory>
-
配置 API 密钥: 在构建之前,您需要提供您的 Together AI API 密钥。请参阅下面的设置指南部分,了解不同的方法(例如,使用
.env
文件或环境变量)。 -
安装依赖项并构建:
npm install npm run build
注意:如果使用项目的
.env
文件方法来配置 API 密钥,请确保在此步骤之前该文件存在。
用法(独立 / 通用)
确保您的 API 密钥已配置(请参阅设置指南)。
启动服务器:
npm start
服务器将准备好接受来自 MCP 客户端的连接。
设置指南
1. 获取 Together AI API 密钥
- 从 Together AI 获取 API 密钥。(您可能需要注册或查看他们的文档以获取具体说明)。
- 在您的 Together AI 帐户设置或仪表板中找到您的 API 密钥。
2. 配置 API 密钥
您需要使您的 API 密钥可供服务器使用。选择以下一种方法:
方法 A:项目 .env
文件(推荐用于独立或 LibreChat)
如果与当前版本的 LibreChat 集成,则需要使用此方法(请参阅下面的特定部分)。
- 在项目根目录中,创建一个名为
.env
的文件:# 在项目目录中 echo "TOGETHER_API_KEY=your_together_api_key_here" > .env
- 将
your_api_key_here
替换为您的实际密钥。 - 确保在运行
npm install
之前此文件存在。构建步骤可能会通过prepare
脚本自动由npm install
触发。
方法 B:环境变量(仅限独立)
在启动服务器之前,设置 TOGETHER_API_KEY
环境变量。
export TOGETHER_API_KEY="your_together_api_key_here"
# 启动服务器(如果需要,调整命令,例如,node build/index.js)
node build/index.js
方法 C:MCP 客户端配置(高级)
某些 MCP 客户端允许直接在其配置中指定环境变量。这对于像 Cursor、VS Code 扩展等客户端非常有用。
{
"mcpServers": {
"together-image-gen": { // 使用描述性名称
"command": "node", // 假设构建后直接执行
"args": [
"/path/to/your/together-image-gen-mcp/build/index.js" // 根据需要调整路径
],
"env": {
"TOGETHER_API_KEY": "YOUR_TOGETHER_API_KEY"
}
}
}
}
关于集成的说明: 具体的集成步骤(例如,对于 LibreChat)可能需要根据客户端应用程序及其管理 MCP 服务器的方式进行调整。如果服务器进程继承了启动它的环境,则 .env
文件方法通常是可靠的。
示例集成(概念性)
本节提供了一个概念性指南。根据您的特定客户端(例如,LibreChat、Cline、Cursor)和设置(Docker、本地)调整路径和命令。
概述:
- 确保您的客户端应用程序可以访问服务器代码。
- 使用此服务器目录中的项目
.env
文件方法或通过客户端传递的环境变量配置所需的TOGETHER_API_KEY
。 - 构建此服务器(
npm install
应该通过prepare
脚本处理此操作)。 - 配置您的 MCP 客户端以运行此服务器,提供正确的命令、参数和环境变量(如
TOGETHER_API_KEY
)。
分步说明:
-
克隆存储库: 导航到主机上管理 LibreChat 外部服务的目录(通常与您的
docker-compose.yml
位于同一位置)。一个常见的位置是专用的mcp-server
目录。# 示例:导航到 docker-compose.yml 所在的位置,然后进入 mcp-server # 示例:导航到您存储 MCP 服务器的位置 cd /path/to/your/mcp-servers git clone <your-repository-url> # 克隆您修改后的存储库
-
导航到服务器目录:
cd <your-repository-directory>
-
配置 API 密钥(项目
.env
文件方法):# 创建 .env 文件 echo "TOGETHER_API_KEY=your_together_api_key_here" > .env # 重要提示:将 'your_together_api_key_here' 替换为您的实际 Together AI 密钥
-
安装依赖项并构建: 此步骤将服务器代码编译到
build
目录中。npm install npm run build
-
配置 MCP 客户端(示例:
librechat.yaml
): 编辑您的客户端配置文件。为此服务器添加一个条目:# Librechat.yaml 示例 mcp_servers: together-image-gen: # 使用描述性名称 # 可选:服务器在 UI 中的显示名称 # name: Together AI Image Gen # Command 告诉客户端如何运行服务器 command: node # Args 指定 'node' 运行的脚本 *在容器/环境内部* args: # 根据您的卷映射/设置调整此路径 - /app/mcp-servers/<your-repository-directory>/build/index.js
args
路径 (/app/...
) 是 在 LibreChat API 容器 内部 构建的服务器将被访问的位置(感谢下一步中的卷绑定)。
-
配置 Docker 卷绑定(如果使用 Docker): 如果您的客户端在 Docker 中运行,请将服务器目录从您的主机映射到容器中。编辑您的
docker-compose.yml
或docker-compose.override.yml
:# docker-compose.yml 示例 services: your_client_service: # 例如,LibreChat 的 api # ... 其他服务配置 ... volumes: # ... 其他卷 ... # 添加此卷绑定(调整路径): - ./mcp-servers/<your-repository-directory>:/app/mcp-servers/<your-repository-directory>
- 主机路径 (
./mcp-servers/...
): 主机上相对于docker-compose.yml
的路径。 - 容器路径 (
:/app/mcp-servers/...
): 容器内部的路径。必须与客户端配置 (librechat.yaml
args) 中使用的路径对齐。
- 主机路径 (
-
重启客户端应用程序: 通过重启您的客户端应用程序(例如,重启 Docker 容器)来应用配置更改。
现在,Together AI 图像生成服务器应该可以作为您客户端中的工具提供程序使用。
功能
- 使用 Together AI API 根据文本提示生成图像。
- 可配置的参数,如模型、尺寸、步数等。
- 与 MCP 客户端集成(例如,Cline、LibreChat、Cursor)。
工具:image_generation
- 描述: 使用 Together AI API 根据文本提示生成图像。
- 参数:
model
(必需, 字符串): 要使用的模型 ID(例如,"stabilityai/stable-diffusion-xl-1024-v1.0")。prompt
(必需, 字符串): 用于指导图像生成的文本提示。width
(可选, 整数, 默认值: 1024): 图像宽度(以像素为单位)。height
(可选, 整数, 默认值: 1024): 图像高度(以像素为单位)。steps
(可选, 整数, 默认值: 20): 扩散步数。n
(可选, 整数, 默认值: 1): 要生成的图像数量。seed
(可选, 整数): 用于重现性的种子。response_format
(可选, 字符串, 默认值: 'b64_json'): 返回图像的格式('url' 或 'b64_json')。stop
(可选, 字符串数组): 在哪些序列处停止生成。
版本历史
- v0.1.1 (Bugfix): 修复了
src/tools/image_generation.ts
中的一个错误,即除非模型名称与模型卡上显示的精确字符串匹配,否则图像生成请求将失败。该工具现在始终在内部使用正确的默认模型 ("black-forest-labs/FLUX.1.1-pro"),因此用户无需指定确切的模型名称。此版本可用,建议所有用户使用。 - v0.1.0 (Refactored): 专注于 Together AI 图像生成的初始版本。改编自 search1api-mcp v0.2.0。
许可证
本项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。