MCP Gemini Server

MCP Gemini Server

一个实现了模型上下文协议(Model Context Protocol)的服务器,它使像 Claude 这样的人工智能助手能够与谷歌的 Gemini API 交互,以进行文本生成、文本分析和聊天对话。

Category
访问服务器

README

MCP Gemini 服务器

这是一个模型上下文协议 (MCP) 的服务器实现,旨在使像 Claude 这样的 AI 助手能够与 Google 的 Gemini API 交互。

项目概述

本项目实现了一个遵循模型上下文协议的服务器,允许 AI 助手与 Google 的 Gemini 模型进行通信。通过这个 MCP 服务器,AI 助手可以请求文本生成、文本分析,并通过 Gemini API 维护聊天对话。

功能特性

  • 客户端-服务器通信: 实现了 MCP 协议,用于客户端和服务器之间的安全消息交换。
  • 消息处理: 处理客户端请求并发送适当的响应。
  • 错误处理与日志记录: 记录服务器活动并确保平稳的错误恢复。
  • 环境变量支持: 使用 .env 文件安全地存储敏感信息。
  • API 测试与调试: 支持使用 Postman 和测试脚本进行手动和自动化测试。

安装

前提条件

  • Python 3.7 或更高版本
  • Google AI API 密钥

设置

  1. 克隆此仓库:
git clone https://github.com/yourusername/mcp-gemini-server.git
cd mcp-gemini-server
  1. 创建一个虚拟环境:
python -m venv venv
  1. 激活虚拟环境:

    • Windows: venv\Scripts\activate
    • macOS/Linux: source venv/bin/activate
  2. 安装依赖项:

pip install -r requirements.txt
  1. 在根目录下创建一个 .env 文件,并填入您的 Gemini API 密钥:
GEMINI_API_KEY=your_api_key_here

使用方法

  1. 启动服务器:
python server.py
  1. 服务器默认运行在 http://localhost:5000/

  2. 使用 POST 方法将 MCP 请求发送到 /mcp 端点

示例请求

import requests

url = 'http://localhost:5000/mcp'
payload = {
    'action': 'generate_text',
    'parameters': {
        'prompt': '写一首关于 AI 的短诗',
        'temperature': 0.7
    }
}

response = requests.post(url, json=payload)
print(response.json())

API 参考

端点

  • GET /health: 检查服务器是否正在运行
  • GET /list-models: 列出可用的 Gemini 模型
  • POST /mcp: MCP 请求的主要端点

MCP 动作

1. generate_text

使用 Gemini 生成文本内容。

参数:

  • prompt (必需): 用于生成的文本提示
  • temperature (可选): 控制随机性 (0.0 到 1.0)
  • max_tokens (可选): 要生成的最大 token 数

示例:

{
  "action": "generate_text",
  "parameters": {
    "prompt": "写一个关于机器人的短篇故事",
    "temperature": 0.8,
    "max_tokens": 500
  }
}

2. analyze_text

分析文本内容。

参数:

  • text (必需): 要分析的文本
  • analysis_type (可选): 分析类型 ('sentiment', 'summary', 'keywords', 或 'general')

示例:

{
  "action": "analyze_text",
  "parameters": {
    "text": "今天天气真好!我喜欢阳光明媚的样子。",
    "analysis_type": "sentiment"
  }
}

3. chat

与 Gemini 进行对话。

参数:

  • messages (必需): 包含 'role' 和 'content' 的消息对象数组
  • temperature (可选): 控制随机性 (0.0 到 1.0)

示例:

{
  "action": "chat",
  "parameters": {
    "messages": [
      {"role": "user", "content": "你好,你好吗?"},
      {"role": "assistant", "content": "我很好!有什么可以帮到你的吗?"},
      {"role": "user", "content": "给我讲讲量子计算"}
    ],
    "temperature": 0.7
  }
}

错误处理

服务器返回适当的 HTTP 状态码和错误消息:

  • 200: 请求成功
  • 400: 错误的请求(缺少或无效的参数)
  • 500: 服务器错误(API 问题等)

测试

使用包含的测试脚本来测试各种功能:

# 测试所有功能
python test_client.py

# 测试特定功能
python test_client.py text     # 测试文本生成
python test_client.py analyze  # 测试文本分析
python test_client.py chat     # 测试聊天功能

MCP 协议规范

此处实现的模型上下文协议遵循以下规范:

  1. 请求格式:

    • action: 指定操作的字符串
    • parameters: 包含特定于操作的参数的对象
  2. 响应格式:

    • result: 包含操作结果的对象
    • error: 解释任何错误的字符串(如果适用)

许可证

MIT 许可证

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选