Together AI Image Generation MCP Server

Together AI Image Generation MCP Server

使用 Flux 1.1 专业的 together.ai API 的 MCP-Server 来生成图像。

mystique920

开发者工具
访问服务器

README

⚠️ 预览版本: 此 MCP 服务器正在积极开发中。预计会有大量的控制台日志记录和潜在的更改。目前不建议用于生产环境。

重要提示:

  • 在此分支中,生成的图像不会本地存储。它们仅在您的浏览器缓存中可用,并且 Together AI 会快速从其服务器中删除生成的图像。 强烈建议您在生成后立即保存任何想要保留的图像。
  • 对于需要永久本地存储生成图像的用户,有一个单独的分支: v0.2.0 (LibreChat 独占) — 此版本仅支持 LibreChat,并将所有生成的图像永久存储在您的本地计算机上。

Together AI 图像生成 MCP 服务器

一个使用 Together AI API 提供图像生成功能的模型上下文协议 (MCP) 服务器。

前提条件

  • Node.js >= 18.0.0
  • 有效的 Together AI API 密钥(请参阅下面的设置指南,了解如何获取和配置)
  • 重要提示: 访问 Flux 1.1 Pro 模型需要启用 Tier 2 的 Together AI 帐户。仅有有效的 API 密钥是不够的。

安装(独立 / 通用)

  1. 克隆存储库:

    # 如果是 fork 或新项目,请考虑重命名存储库
    git clone <your-repository-url>
    cd <your-repository-directory>
    
  2. 配置 API 密钥: 在构建之前,您需要提供您的 Together AI API 密钥。请参阅下面的设置指南部分,了解不同的方法(例如,使用 .env 文件或环境变量)。

  3. 安装依赖项并构建:

    npm install
    npm run build
    

    注意:如果使用项目的 .env 文件方法来配置 API 密钥,请确保在此步骤之前该文件存在。

用法(独立 / 通用)

确保您的 API 密钥已配置(请参阅设置指南)。

启动服务器:

npm start

服务器将准备好接受来自 MCP 客户端的连接。

设置指南

1. 获取 Together AI API 密钥

  1. Together AI 获取 API 密钥。(您可能需要注册或查看他们的文档以获取具体说明)。
  2. 在您的 Together AI 帐户设置或仪表板中找到您的 API 密钥。

2. 配置 API 密钥

您需要使您的 API 密钥可供服务器使用。选择以下一种方法:

方法 A:项目 .env 文件(推荐用于独立或 LibreChat)

如果与当前版本的 LibreChat 集成,则需要使用此方法(请参阅下面的特定部分)。

  1. 在项目根目录中,创建一个名为 .env 的文件:
    # 在项目目录中
    echo "TOGETHER_API_KEY=your_together_api_key_here" > .env
    
  2. your_api_key_here 替换为您的实际密钥。
  3. 确保在运行 npm install 之前此文件存在。构建步骤可能会通过 prepare 脚本自动由 npm install 触发。

方法 B:环境变量(仅限独立)

在启动服务器之前,设置 TOGETHER_API_KEY 环境变量。

export TOGETHER_API_KEY="your_together_api_key_here"
# 启动服务器(如果需要,调整命令,例如,node build/index.js)
node build/index.js

方法 C:MCP 客户端配置(高级)

某些 MCP 客户端允许直接在其配置中指定环境变量。这对于像 Cursor、VS Code 扩展等客户端非常有用。

{
  "mcpServers": {
    "together-image-gen": { // 使用描述性名称
      "command": "node", // 假设构建后直接执行
      "args": [
        "/path/to/your/together-image-gen-mcp/build/index.js" // 根据需要调整路径
      ],
      "env": {
        "TOGETHER_API_KEY": "YOUR_TOGETHER_API_KEY"
      }
    }
  }
}

关于集成的说明: 具体的集成步骤(例如,对于 LibreChat)可能需要根据客户端应用程序及其管理 MCP 服务器的方式进行调整。如果服务器进程继承了启动它的环境,则 .env 文件方法通常是可靠的。

示例集成(概念性)

本节提供了一个概念性指南。根据您的特定客户端(例如,LibreChat、Cline、Cursor)和设置(Docker、本地)调整路径和命令。

概述:

  1. 确保您的客户端应用程序可以访问服务器代码。
  2. 使用此服务器目录中的项目 .env 文件方法或通过客户端传递的环境变量配置所需的 TOGETHER_API_KEY
  3. 构建此服务器(npm install 应该通过 prepare 脚本处理此操作)。
  4. 配置您的 MCP 客户端以运行此服务器,提供正确的命令、参数和环境变量(如 TOGETHER_API_KEY)。

分步说明:

  1. 克隆存储库: 导航到主机上管理 LibreChat 外部服务的目录(通常与您的 docker-compose.yml 位于同一位置)。一个常见的位置是专用的 mcp-server 目录。

    # 示例:导航到 docker-compose.yml 所在的位置,然后进入 mcp-server
    # 示例:导航到您存储 MCP 服务器的位置
    cd /path/to/your/mcp-servers
    git clone <your-repository-url> # 克隆您修改后的存储库
    
  2. 导航到服务器目录:

    cd <your-repository-directory>
    
  3. 配置 API 密钥(项目 .env 文件方法):

    # 创建 .env 文件
    echo "TOGETHER_API_KEY=your_together_api_key_here" > .env
    # 重要提示:将 'your_together_api_key_here' 替换为您的实际 Together AI 密钥
    
  4. 安装依赖项并构建: 此步骤将服务器代码编译到 build 目录中。

    npm install
    npm run build
    
  5. 配置 MCP 客户端(示例:librechat.yaml): 编辑您的客户端配置文件。为此服务器添加一个条目:

    # Librechat.yaml 示例
    mcp_servers:
      together-image-gen: # 使用描述性名称
        # 可选:服务器在 UI 中的显示名称
        # name: Together AI Image Gen
    
        # Command 告诉客户端如何运行服务器
        command: node
    
        # Args 指定 'node' 运行的脚本 *在容器/环境内部*
        args:
          # 根据您的卷映射/设置调整此路径
          - /app/mcp-servers/<your-repository-directory>/build/index.js
    
    • args 路径 (/app/...) 是 LibreChat API 容器 内部 构建的服务器将被访问的位置(感谢下一步中的卷绑定)。
  6. 配置 Docker 卷绑定(如果使用 Docker): 如果您的客户端在 Docker 中运行,请将服务器目录从您的主机映射到容器中。编辑您的 docker-compose.ymldocker-compose.override.yml

    # docker-compose.yml 示例
    services:
      your_client_service: # 例如,LibreChat 的 api
        # ... 其他服务配置 ...
        volumes:
          # ... 其他卷 ...
    
          # 添加此卷绑定(调整路径):
          - ./mcp-servers/<your-repository-directory>:/app/mcp-servers/<your-repository-directory>
    
    • 主机路径 (./mcp-servers/...): 主机上相对于 docker-compose.yml 的路径。
    • 容器路径 (:/app/mcp-servers/...): 容器内部的路径。必须与客户端配置 (librechat.yaml args) 中使用的路径对齐。
  7. 重启客户端应用程序: 通过重启您的客户端应用程序(例如,重启 Docker 容器)来应用配置更改。

现在,Together AI 图像生成服务器应该可以作为您客户端中的工具提供程序使用。

功能

  • 使用 Together AI API 根据文本提示生成图像。
  • 可配置的参数,如模型、尺寸、步数等。
  • 与 MCP 客户端集成(例如,Cline、LibreChat、Cursor)。

工具:image_generation

  • 描述: 使用 Together AI API 根据文本提示生成图像。
  • 参数:
    • model (必需, 字符串): 要使用的模型 ID(例如,"stabilityai/stable-diffusion-xl-1024-v1.0")。
    • prompt (必需, 字符串): 用于指导图像生成的文本提示。
    • width (可选, 整数, 默认值: 1024): 图像宽度(以像素为单位)。
    • height (可选, 整数, 默认值: 1024): 图像高度(以像素为单位)。
    • steps (可选, 整数, 默认值: 20): 扩散步数。
    • n (可选, 整数, 默认值: 1): 要生成的图像数量。
    • seed (可选, 整数): 用于重现性的种子。
    • response_format (可选, 字符串, 默认值: 'b64_json'): 返回图像的格式('url' 或 'b64_json')。
    • stop (可选, 字符串数组): 在哪些序列处停止生成。

版本历史

  • v0.1.1 (Bugfix): 修复了 src/tools/image_generation.ts 中的一个错误,即除非模型名称与模型卡上显示的精确字符串匹配,否则图像生成请求将失败。该工具现在始终在内部使用正确的默认模型 ("black-forest-labs/FLUX.1.1-pro"),因此用户无需指定确切的模型名称。此版本可用,建议所有用户使用。
  • v0.1.0 (Refactored): 专注于 Together AI 图像生成的初始版本。改编自 search1api-mcp v0.2.0。

许可证

本项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
MCP Package Docs Server

MCP Package Docs Server

促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。

精选
本地
TypeScript
Claude Code MCP

Claude Code MCP

一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。

精选
本地
JavaScript
@kazuph/mcp-taskmanager

@kazuph/mcp-taskmanager

用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。

精选
本地
JavaScript
mermaid-mcp-server

mermaid-mcp-server

一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。

精选
JavaScript
Jira-Context-MCP

Jira-Context-MCP

MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

精选
TypeScript
Linear MCP Server

Linear MCP Server

一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

精选
JavaScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Curri MCP Server

Curri MCP Server

通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。

官方
本地
JavaScript