
LlamaCloud MCP Server
一个本地 MCP 服务器,与 Claude Desktop 集成,启用 RAG 功能,使 Claude 能够从自定义 LlamaCloud 索引获取最新的私有信息。
README
LlamaIndex MCP 演示
本仓库演示了如何使用 LlamaCloud 创建 MCP 服务器,以及如何使用 LlamaIndex 作为 MCP 客户端。
LlamaCloud 作为 MCP 服务器
要提供一个可以被像 Claude Desktop 这样的客户端使用的本地 MCP 服务器,你可以使用 mcp-server.py
。你可以使用它来提供一个工具,该工具将使用 RAG 为 Claude 提供最新的私有信息,以便它可以用来回答问题。你可以根据需要提供任意数量的此类工具。
设置你的 LlamaCloud 索引
- 获取一个 LlamaCloud 账户
- 创建一个新的索引,使用你想要的任何数据源。在我们的例子中,我们使用了 Google Drive,并提供了 LlamaIndex 文档的一个子集作为数据源。如果你只想测试一下,你也可以直接将文档上传到索引。
- 从 LlamaCloud UI 获取一个 API 密钥
设置你的 MCP 服务器
- 克隆此仓库
- 创建一个
.env
文件并添加两个环境变量:LLAMA_CLOUD_API_KEY
- 你在上一步中获得的 API 密钥OPENAI_API_KEY
- 一个 OpenAI API 密钥。这用于驱动 RAG 查询。如果你不想使用 OpenAI,你可以使用 任何其他 LLM。
现在让我们看看代码。首先,你实例化一个 MCP 服务器:
mcp = FastMCP('llama-index-server')
然后,你使用 @mcp.tool()
装饰器定义你的工具:
@mcp.tool()
def llama_index_documentation(query: str) -> str:
"""Search the llama-index documentation for the given query."""
index = LlamaCloudIndex(
name="mcp-demo-2",
project_name="Rando project",
organization_id="e793a802-cb91-4e6a-bd49-61d0ba2ac5f9",
api_key=os.getenv("LLAMA_CLOUD_API_KEY"),
)
response = index.as_query_engine().query(query + " Be verbose and include code examples.")
return str(response)
在这里,我们的工具被称为 llama_index_documentation
;它实例化一个名为 mcp-demo-2
的 LlamaCloud 索引,然后将其用作查询引擎来回答查询,并在提示中包含一些额外的指令。你将在下一节中获得有关如何设置 LlamaCloud 索引的说明。
最后,你运行服务器:
if __name__ == "__main__":
mcp.run(transport="stdio")
请注意 stdio
传输,用于与 Claude Desktop 通信。
配置 Claude Desktop
- 安装 Claude Desktop
- 在菜单栏中选择
Claude
->Settings
->Developer
->Edit Config
。这将显示一个配置文件,你可以在你喜欢的文本编辑器中编辑它。 - 你希望你的配置看起来像这样(确保将
$YOURPATH
替换为仓库的路径):
{
"mcpServers": {
"llama_index_docs_server": {
"command": "poetry",
"args": [
"--directory",
"$YOURPATH/llamacloud-mcp",
"run",
"python",
"$YOURPATH/llamacloud-mcp/mcp-server.py"
]
}
}
}
确保在配置完文件后重启 Claude Desktop。
现在你就可以查询了!你应该在 Claude Desktop 的查询框下方看到一个工具图标,其中列出了你的服务器,如下所示:
LlamaIndex 作为 MCP 客户端
LlamaIndex 也有一个 MCP 客户端集成,这意味着你可以将任何 MCP 服务器变成一组可以被代理使用的工具。你可以在 mcp-client.py
中看到这一点,我们在其中使用 BasicMCPClient
连接到我们的本地 MCP 服务器。
为了演示的简单性,我们使用上面刚刚设置的同一个 MCP 服务器。通常,你不会使用 MCP 将 LlamaCloud 连接到 LlamaIndex 代理,你会使用 QueryEngineTool 并将其直接传递给代理。
设置你的 MCP 服务器
要提供一个可以被 HTTP 客户端使用的本地 MCP 服务器,我们需要稍微修改 mcp-server.py
以使用 run_sse_async
方法而不是 run
。你可以在 mcp-http-server.py
中找到它。
mcp = FastMCP('llama-index-server',port=8000)
asyncio.run(mcp.run_sse_async())
从 MCP 服务器获取你的工具
mcp_client = BasicMCPClient("http://localhost:8000/sse")
mcp_tool_spec = McpToolSpec(
client=mcp_client,
# Optional: Filter the tools by name
# allowed_tools=["tool1", "tool2"],
)
tools = mcp_tool_spec.to_tool_list()
创建一个代理并提出一个问题
llm = OpenAI(model="gpt-4o-mini")
agent = FunctionAgent(
tools=tools,
llm=llm,
system_prompt="You are an agent that knows how to build agents in LlamaIndex.",
)
async def run_agent():
response = await agent.run("How do I instantiate an agent in LlamaIndex?")
print(response)
if __name__ == "__main__":
asyncio.run(run_agent())
你都设置好了!你现在可以使用代理来回答来自你的 LlamaCloud 索引的问题。
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。