Image Generation MCP Server
镜子 (jìng zi)
MCP-Mirror
README
图像生成 MCP 服务器
一个模型上下文协议 (MCP) 服务器,它能够通过 Together AI 使用 Flux.1 Schnell 模型无缝生成高质量图像。该服务器提供了一个标准化的接口来指定图像生成参数。
<a href="https://glama.ai/mcp/servers/y6qfizhsja"> <img width="380" height="200" src="https://glama.ai/mcp/servers/y6qfizhsja/badge" alt="Image Generation Server MCP server" /> </a>
特性
- 由 Flux.1 Schnell 模型提供支持的高质量图像生成
- 支持可自定义的尺寸(宽度和高度)
- 针对提示验证和 API 问题的清晰错误处理
- 易于与 MCP 兼容的客户端集成
- 可选的以 PNG 格式将图像保存到磁盘
安装
npm install together-mcp
或者直接运行:
npx together-mcp@latest
配置
添加到您的 MCP 服务器配置:
<summary>配置示例</summary>
{
"mcpServers": {
"together-image-gen": {
"command": "npx",
"args": ["together-mcp@latest -y"],
"env": {
"TOGETHER_API_KEY": "<API KEY>"
}
}
}
}
用法
该服务器提供一个工具:generate_image
使用 generate_image
此工具只有一个必需参数 - 提示。所有其他参数都是可选的,如果未提供,则使用合理的默认值。
参数
{
// 必需
prompt: string; // 要生成的图像的文本描述
// 可选,带有默认值
model?: string; // 默认值: "black-forest-labs/FLUX.1-schnell-Free"
width?: number; // 默认值: 1024 (最小值: 128, 最大值: 2048)
height?: number; // 默认值: 768 (最小值: 128, 最大值: 2048)
steps?: number; // 默认值: 1 (最小值: 1, 最大值: 100)
n?: number; // 默认值: 1 (最大值: 4)
response_format?: string; // 默认值: "b64_json" (选项: ["b64_json", "url"])
image_path?: string; // 可选: 将生成的图像保存为 PNG 的路径
}
最小请求示例
只需要提示:
{
"name": "generate_image",
"arguments": {
"prompt": "日落时分宁静的山景"
}
}
完整请求示例,带有图像保存
覆盖任何默认值并指定保存图像的路径:
{
"name": "generate_image",
"arguments": {
"prompt": "日落时分宁静的山景",
"width": 1024,
"height": 768,
"steps": 20,
"n": 1,
"response_format": "b64_json",
"model": "black-forest-labs/FLUX.1-schnell-Free",
"image_path": "/path/to/save/image.png"
}
}
响应格式
响应将是一个包含以下内容的 JSON 对象:
{
"id": string, // 生成 ID
"model": string, // 使用的模型
"object": "list",
"data": [
{
"timings": {
"inference": number // 推理所花费的时间
},
"index": number, // 图像索引
"b64_json": string // Base64 编码的图像数据 (如果 response_format 是 "b64_json")
// OR
"url": string // 生成图像的 URL (如果 response_format 是 "url")
}
]
}
如果提供了 image_path 并且保存成功,则响应将包括保存位置的确认信息。
默认值
如果在请求中未指定,则使用以下默认值:
- model: "black-forest-labs/FLUX.1-schnell-Free"
- width: 1024
- height: 768
- steps: 1
- n: 1
- response_format: "b64_json"
重要提示
- 只需要
prompt
参数 - 所有可选参数如果未提供,则使用默认值
- 提供参数时,参数必须满足其约束(例如,宽度/高度范围)
- Base64 响应可能很大 - 对于较大的图像,请使用 URL 格式
- 保存图像时,请确保指定的目录存在且可写
先决条件
- Node.js >= 16
- Together AI API 密钥
- 在 api.together.xyz 登录
- 导航到 API 密钥设置
- 单击“创建”以生成新的 API 密钥
- 复制生成的密钥以在您的 MCP 配置中使用
依赖项
{
"@modelcontextprotocol/sdk": "0.6.0",
"axios": "^1.6.7"
}
开发
克隆并构建项目:
git clone https://github.com/manascb1344/together-mcp-server
cd together-mcp-server
npm install
npm run build
可用脚本
npm run build
- 构建 TypeScript 项目npm run watch
- 监视更改并重建npm run inspector
- 运行 MCP 检查器
贡献
欢迎贡献!请按照以下步骤操作:
- Fork 存储库
- 创建一个新分支 (
feature/my-new-feature
) - 提交您的更改
- 将分支推送到您的 fork
- 打开一个 Pull Request
功能请求和错误报告可以通过 GitHub Issues 提交。在创建新问题之前,请检查现有问题。
对于重大更改,请先打开一个 issue 来讨论您提出的更改。
许可证
该项目已获得 MIT 许可证的许可。 有关详细信息,请参见 LICENSE 文件。
推荐服务器
Crypto Price & Market Analysis MCP Server
一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。
MCP PubMed Search
用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。
mixpanel
连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

Nefino MCP Server
为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。
Vectorize
将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。
Mathematica Documentation MCP server
一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。
kb-mcp-server
一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。
Research MCP Server
这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

Cryo MCP Server
一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。