MCP Inception MCP Server
一个基于 TypeScript 的服务器,允许从您自己的 MCP 客户端调用其他 MCP 客户端,从而促进任务委派和上下文窗口卸载,以增强多智能体交互。
Tools
execute_map_reduce_mcp_client
Process multiple items in parallel then sequentially reduce the results to a single output.
execute_mcp_client
Offload certain tasks to AI. Used for research purposes, do not use for code editing or anything code related. Only used to fetch data.
execute_parallel_mcp_client
Execute multiple AI tasks in parallel, with responses in JSON key-value pairs.
README
免责声明
好的,这是一个难题。不幸的是,需要进行一些设置。 但是,如果您设法使其更加简单,请向我发送PR。
mcp-inception MCP 服务器
从您的 mcp 客户端调用另一个 mcp 客户端。委派任务,卸载上下文窗口。您代理的代理!
这是一个基于 TypeScript 的 MCP 服务器,它实现了一个简单的 LLM 查询系统。
- MCP 服务器和客户端合二为一
- 使用 mcp-client-cli 构建
- 卸载上下文窗口
- 委派任务
- 任务的并行和 map-reduce 执行
<a href="https://glama.ai/mcp/servers/hedrd1hxv5"><img width="380" height="200" src="https://glama.ai/mcp/servers/hedrd1hxv5/badge" alt="Inception Server MCP server" /></a>
特性
工具
execute_mcp_client- 向单独的 LLM 提问,忽略查询其工具时所采取的所有中间步骤,并返回输出。- 将问题作为必需参数
- 返回答案,忽略所有中间上下文
- execute_parallel_mcp_client - 接受输入列表和主提示,并为输入中的每个字符串并行执行提示。
例如,获取当前 6 个主要城市的时间 - 伦敦、巴黎、东京、里约热内卢、纽约、悉尼。
- 接受主提示“这个城市的时间是多少?”
- 接受输入列表,伦敦巴黎等
- 为每个输入并行运行提示
- 注意:在使用此功能之前,请等待 this
execute_map_reduce_mcp_client- 并行处理多个项目,然后按顺序将结果减少为单个输出。- 接受带有
{item}占位符的mapPrompt用于单独的项目处理 - 接受带有
{accumulator}和{result}占位符的reducePrompt用于组合结果 - 接受要处理的
items列表 - 累加器的可选
initialValue - 并行处理项目,然后按顺序减少结果
- 示例用例:分析多个文档,然后将所有文档中的关键见解综合成摘要
- 接受带有
开发
依赖项:
- 安装 mcp-client-cli
- 还要安装配置文件,以及它在
~/.llm/config.json中需要的 mcp 服务器
- 还要安装配置文件,以及它在
- 在某个地方创建一个 bash 文件,该文件激活 venv 并执行
llm可执行文件
#!/bin/bash
source ./venv/bin/activate
llm --no-confirmations
安装包
安装依赖项:
npm install
构建服务器:
npm run build
对于使用自动重建进行开发:
npm run watch
安装
要与 Claude Desktop 一起使用,请添加服务器配置:
在 MacOS 上:~/Library/Application Support/Claude/claude_desktop_config.json
在 Windows 上:%APPDATA%/Claude/claude_desktop_config.json
{
"mcpServers": {
"mcp-inception": {
"command": "node",
"args": ["~/Documents/Cline/MCP/mcp-inception/build/index.js"], // build/index.js from this repo
"disabled": false,
"autoApprove": [],
"env": {
"MCP_INCEPTION_EXECUTABLE": "./run_llm.sh", // bash file from Development->Dependencies
"MCP_INCEPTION_WORKING_DIR": "/mcp-client-cli working dir"
}
}
}
}
调试
由于 MCP 服务器通过 stdio 进行通信,因此调试可能具有挑战性。我们建议使用 MCP Inspector,它作为包脚本提供:
npm run inspector
Inspector 将提供一个 URL 以访问浏览器中的调试工具。
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。