🧠 Advanced MCP Server Setup with
使用 uv、llama-index、ollama 和 Cursor IDE 进行高级 MCP 服务器设置
sidhyaashu
README
🧠 使用 uv
、llama-index
、ollama
和 Cursor IDE 进行高级 MCP 服务器设置
✅ 前提条件
- [x] 已安装 Python 3.10+
- [x] 已全局安装 uv (by Astral) (
pip install uv
) - [x] 已安装并在本地运行 Ollama
- [x] 已安装 Cursor IDE
🛠 第 1 步:项目设置
1.1 创建新项目目录
uv init mcp-server
cd mcp-server
1.2 创建并激活虚拟环境
uv venv
.venv\Scripts\activate # 在 Windows 上
# 或者
source .venv/bin/activate # 在 Linux/Mac 上
🔐 第 2 步:环境配置
在项目根目录中创建一个 .env
文件,并添加您的 API 密钥:
LINKUP_API_KEY=your_api_key_here
📦 第 3 步:安装所需依赖项
在您的虚拟环境中逐个运行以下命令:
# 核心 MCP CLI 和 HTTP 实用程序
uv add mcp[cli] httpx
# 用于编排代理的 Linkup SDK
uv add linkup-sdk
# LlamaIndex 集成
uv add llama-index
uv add llama-index-embeddings-huggingface
uv add llama-index-llms-ollama
# 可选:用于使用笔记本
uv add ipykernel
🧪 第 4 步:确认安装
安装后,检查您的 uv
管理的 pyproject.toml
文件,看是否包含如下内容:
[tool.uv.dependencies]
mcp = { extras = ["cli"] }
httpx = "*"
linkup-sdk = "*"
llama-index = "*"
llama-index-embeddings-huggingface = "*"
llama-index-llms-ollama = "*"
ipykernel = "*"
⚙️ 第 5 步:创建一个最小的服务器入口点
在项目根目录中创建一个 server.py
文件:
# server.py
from mcp.cli import app
if __name__ == "__main__":
app()
您稍后可以用您自己的
FastMCP
或 Agent orchestrator 脚本替换它。
🧠 第 6 步:在本地运行 Ollama
确保已安装并运行 Ollama:
ollama run llama3.2 Or any model you want
这将在 http://localhost:11434
启动 LLM 后端。
🖥️ 第 7 步:在 Cursor IDE 中配置 MCP 服务器
7.1 打开 Cursor 设置
- 打开
Settings
→ 转到 MCP 部分。 - 点击 "Add New Global MCP Server"
7.2 填写配置
将路径替换为您实际的机器路径。 您可以通过运行以下命令获取 uv
的完整路径:
where uv # Windows
现在将其添加到您的 Cursor IDE 设置中:
{
"mcpServers": {
"weather": {
"command": "C:\\Users\\SIDHYA\\AppData\\Roaming\\Python\\Python311\\Scripts\\uv.exe", // 替换为您实际的 uv 路径
"args": [
"--directory",
"C:\\Users\\SIDHYA\\Development\\Ai\\mcp-server",
"run",
"server.py"
]
}
}
}
🧪 第 8 步:测试集成
- 在 Cursor 中打开任何
.py
文件。 - 使用 MCP 工具(通常可以通过
⌘K
或Ctrl+K
访问)来运行 “weather” MCP 服务器。 - 您应该看到服务器使用您的
server.py
启动。
📘 建议的目录结构
mcp-server/
├── .env
├── pyproject.toml
├── server.py
└── rag.py
🔁 保持更新
要更新依赖项:
uv pip install --upgrade llama-index
uv pip install --upgrade linkup-sdk
✍️ 作者
👋 嗨,我是 Asutosh Sidhya
🌐 与我联系
- 📧 电子邮件:sidhyaasutosh@gmail.com
- 🧑💻 GitHub:@asutosh7
- 💼 LinkedIn:linkedin.com/in/asutosh-sidhya
如果您正在构建与 AI 代理、本地 LLM 或自动化 RAG 管道相关的东西,我很乐意联系或合作!
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。