MCP Gemini Server
一个实现了模型上下文协议(Model Context Protocol)的服务器,它使像 Claude 这样的人工智能助手能够与谷歌的 Gemini API 交互,以进行文本生成、文本分析和聊天对话。
README
MCP Gemini 服务器
这是一个模型上下文协议 (MCP) 的服务器实现,旨在使像 Claude 这样的 AI 助手能够与 Google 的 Gemini API 交互。
项目概述
本项目实现了一个遵循模型上下文协议的服务器,允许 AI 助手与 Google 的 Gemini 模型进行通信。通过这个 MCP 服务器,AI 助手可以请求文本生成、文本分析,并通过 Gemini API 维护聊天对话。
功能特性
- 客户端-服务器通信: 实现了 MCP 协议,用于客户端和服务器之间的安全消息交换。
- 消息处理: 处理客户端请求并发送适当的响应。
- 错误处理与日志记录: 记录服务器活动并确保平稳的错误恢复。
- 环境变量支持: 使用
.env文件安全地存储敏感信息。 - API 测试与调试: 支持使用 Postman 和测试脚本进行手动和自动化测试。
安装
前提条件
- Python 3.7 或更高版本
- Google AI API 密钥
设置
- 克隆此仓库:
git clone https://github.com/yourusername/mcp-gemini-server.git
cd mcp-gemini-server
- 创建一个虚拟环境:
python -m venv venv
-
激活虚拟环境:
- Windows:
venv\Scripts\activate - macOS/Linux:
source venv/bin/activate
- Windows:
-
安装依赖项:
pip install -r requirements.txt
- 在根目录下创建一个
.env文件,并填入您的 Gemini API 密钥:
GEMINI_API_KEY=your_api_key_here
使用方法
- 启动服务器:
python server.py
-
服务器默认运行在
http://localhost:5000/ -
使用 POST 方法将 MCP 请求发送到
/mcp端点
示例请求
import requests
url = 'http://localhost:5000/mcp'
payload = {
'action': 'generate_text',
'parameters': {
'prompt': '写一首关于 AI 的短诗',
'temperature': 0.7
}
}
response = requests.post(url, json=payload)
print(response.json())
API 参考
端点
GET /health: 检查服务器是否正在运行GET /list-models: 列出可用的 Gemini 模型POST /mcp: MCP 请求的主要端点
MCP 动作
1. generate_text
使用 Gemini 生成文本内容。
参数:
prompt(必需): 用于生成的文本提示temperature(可选): 控制随机性 (0.0 到 1.0)max_tokens(可选): 要生成的最大 token 数
示例:
{
"action": "generate_text",
"parameters": {
"prompt": "写一个关于机器人的短篇故事",
"temperature": 0.8,
"max_tokens": 500
}
}
2. analyze_text
分析文本内容。
参数:
text(必需): 要分析的文本analysis_type(可选): 分析类型 ('sentiment', 'summary', 'keywords', 或 'general')
示例:
{
"action": "analyze_text",
"parameters": {
"text": "今天天气真好!我喜欢阳光明媚的样子。",
"analysis_type": "sentiment"
}
}
3. chat
与 Gemini 进行对话。
参数:
messages(必需): 包含 'role' 和 'content' 的消息对象数组temperature(可选): 控制随机性 (0.0 到 1.0)
示例:
{
"action": "chat",
"parameters": {
"messages": [
{"role": "user", "content": "你好,你好吗?"},
{"role": "assistant", "content": "我很好!有什么可以帮到你的吗?"},
{"role": "user", "content": "给我讲讲量子计算"}
],
"temperature": 0.7
}
}
错误处理
服务器返回适当的 HTTP 状态码和错误消息:
200: 请求成功400: 错误的请求(缺少或无效的参数)500: 服务器错误(API 问题等)
测试
使用包含的测试脚本来测试各种功能:
# 测试所有功能
python test_client.py
# 测试特定功能
python test_client.py text # 测试文本生成
python test_client.py analyze # 测试文本分析
python test_client.py chat # 测试聊天功能
MCP 协议规范
此处实现的模型上下文协议遵循以下规范:
-
请求格式:
action: 指定操作的字符串parameters: 包含特定于操作的参数的对象
-
响应格式:
result: 包含操作结果的对象error: 解释任何错误的字符串(如果适用)
许可证
MIT 许可证
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。