mcp-llm

mcp-llm

一个 MCP 服务器,为大型语言模型提供访问其他大型语言模型的能力。 (Or, more formally:) 一个 MCP 服务器,为 LLM 提供访问其他 LLM 的权限。

数字笔记管理
编程文档访问
AI内容生成
访问服务器

Tools

generate_code

Generate code based on a description

generate_code_to_file

Generate code and write it directly to a file at a specific line number

generate_documentation

Generate documentation for code

ask_question

Ask a question to the LLM

README

MCP LLM

smithery badge

一个使用 LlamaIndexTS 库提供 LLM 访问的 MCP 服务器。

我把一些 LLM 放入你的 MCP 中,供你的 LLM 使用

<a href="https://glama.ai/mcp/servers/i1gantlfrs"> <img width="380" height="200" src="https://glama.ai/mcp/servers/i1gantlfrs/badge" alt="mcp-llm MCP server" /> </a>

特性

此 MCP 服务器提供以下工具:

  • generate_code: 根据描述生成代码
  • generate_code_to_file: 生成代码并将其直接写入特定行号的文件
  • generate_documentation: 为代码生成文档
  • ask_question: 向 LLM 提问

调用 LLM 生成代码 调用推理 LLM 编写一些文档

安装

通过 Smithery 安装

要通过 Smithery 自动为 Claude Desktop 安装 LLM Server:

npx -y @smithery/cli install @sammcj/mcp-llm --client claude

从源码手动安装

  1. 克隆存储库
  2. 安装依赖项:
npm install
  1. 构建项目:
npm run build
  1. 更新您的 MCP 配置

使用示例脚本

该存储库包含一个示例脚本,演示如何以编程方式使用 MCP 服务器:

node examples/use-mcp-server.js

此脚本启动 MCP 服务器并使用 curl 命令向其发送请求。

示例

生成代码

{
  "description": "创建一个计算数字阶乘的函数",
  "language": "JavaScript"
}

生成代码到文件

{
  "description": "创建一个计算数字阶乘的函数",
  "language": "JavaScript",
  "filePath": "/path/to/factorial.js",
  "lineNumber": 10,
  "replaceLines": 0
}

generate_code_to_file 工具支持相对和绝对文件路径。 如果提供相对路径,它将相对于 MCP 服务器的当前工作目录进行解析。

生成文档

{
  "code": "function factorial(n) {\n  if (n <= 1) return 1;\n  return n * factorial(n - 1);\n}",
  "language": "JavaScript",
  "format": "JSDoc"
}

提问

{
  "question": "JavaScript 中 var、let 和 const 之间有什么区别?",
  "context": "我是一个学习 JavaScript 的初学者,对变量声明感到困惑。"
}

许可证

推荐服务器

e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mult-fetch-mcp-server

mult-fetch-mcp-server

一个多功能的、符合 MCP 规范的网页内容抓取工具,支持多种模式(浏览器/Node)、格式(HTML/JSON/Markdown/文本)和智能代理检测,并提供双语界面(英语/中文)。

精选
本地
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选
Exa MCP Server

Exa MCP Server

一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。

精选
AI 图像生成服务

AI 图像生成服务

可以用于 Cursor 集成 MCP 服务器。

精选
MCP Web Research Server

MCP Web Research Server

一个模型上下文协议服务器,使 Claude 能够通过集成 Google 搜索、提取网页内容和捕获屏幕截图来进行网络研究。

精选