MCP Inception MCP Server

MCP Inception MCP Server

一个基于 TypeScript 的服务器,允许从您自己的 MCP 客户端调用其他 MCP 客户端,从而促进任务委派和上下文窗口卸载,以增强多智能体交互。

Category
访问服务器

Tools

execute_map_reduce_mcp_client

Process multiple items in parallel then sequentially reduce the results to a single output.

execute_mcp_client

Offload certain tasks to AI. Used for research purposes, do not use for code editing or anything code related. Only used to fetch data.

execute_parallel_mcp_client

Execute multiple AI tasks in parallel, with responses in JSON key-value pairs.

README

免责声明

好的,这是一个难题。不幸的是,需要进行一些设置。 但是,如果您设法使其更加简单,请向我发送PR。

mcp-inception MCP 服务器

从您的 mcp 客户端调用另一个 mcp 客户端。委派任务,卸载上下文窗口。您代理的代理!

这是一个基于 TypeScript 的 MCP 服务器,它实现了一个简单的 LLM 查询系统。

  • MCP 服务器和客户端合二为一
  • 使用 mcp-client-cli 构建
  • 卸载上下文窗口
  • 委派任务
  • 任务的并行和 map-reduce 执行

<a href="https://glama.ai/mcp/servers/hedrd1hxv5"><img width="380" height="200" src="https://glama.ai/mcp/servers/hedrd1hxv5/badge" alt="Inception Server MCP server" /></a>

特性

工具

  • execute_mcp_client - 向单独的 LLM 提问,忽略查询其工具时所采取的所有中间步骤,并返回输出。
    • 将问题作为必需参数
    • 返回答案,忽略所有中间上下文
  • execute_parallel_mcp_client - 接受输入列表和主提示,并为输入中的每个字符串并行执行提示。 例如,获取当前 6 个主要城市的时间 - 伦敦、巴黎、东京、里约热内卢、纽约、悉尼。
    • 接受主提示“这个城市的时间是多少?”
    • 接受输入列表,伦敦巴黎等
    • 为每个输入并行运行提示
    • 注意:在使用此功能之前,请等待 this
  • execute_map_reduce_mcp_client - 并行处理多个项目,然后按顺序将结果减少为单个输出。
    • 接受带有 {item} 占位符的 mapPrompt 用于单独的项目处理
    • 接受带有 {accumulator}{result} 占位符的 reducePrompt 用于组合结果
    • 接受要处理的 items 列表
    • 累加器的可选 initialValue
    • 并行处理项目,然后按顺序减少结果
    • 示例用例:分析多个文档,然后将所有文档中的关键见解综合成摘要

开发

依赖项:

  • 安装 mcp-client-cli
    • 还要安装配置文件,以及它在 ~/.llm/config.json 中需要的 mcp 服务器
  • 在某个地方创建一个 bash 文件,该文件激活 venv 并执行 llm 可执行文件
#!/bin/bash
source ./venv/bin/activate
llm --no-confirmations

安装包

安装依赖项:

npm install

构建服务器:

npm run build

对于使用自动重建进行开发:

npm run watch

安装

要与 Claude Desktop 一起使用,请添加服务器配置:

在 MacOS 上:~/Library/Application Support/Claude/claude_desktop_config.json 在 Windows 上:%APPDATA%/Claude/claude_desktop_config.json

{
  "mcpServers": {
    "mcp-inception": {
      "command": "node",
      "args": ["~/Documents/Cline/MCP/mcp-inception/build/index.js"], // build/index.js from this repo
      "disabled": false,
      "autoApprove": [],
      "env": {
        "MCP_INCEPTION_EXECUTABLE": "./run_llm.sh", // bash file from Development->Dependencies
        "MCP_INCEPTION_WORKING_DIR": "/mcp-client-cli working dir"
      }
    }
  }
}

调试

由于 MCP 服务器通过 stdio 进行通信,因此调试可能具有挑战性。我们建议使用 MCP Inspector,它作为包脚本提供:

npm run inspector

Inspector 将提供一个 URL 以访问浏览器中的调试工具。

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选