
Gemini Thinking Mcp
falahgs
README
Gemini Thinking MCP 服务器
一个用于 Google Gemini 语言模型的模型上下文协议 (MCP) 服务器实现。该服务器允许 Claude Desktop 用户访问 Gemini-2.0-flash-thinking-exp-01-21 模型的强大推理能力。
什么是 Gemini Flash?
Gemini-2.0-flash-thinking-exp-01-21 是 Google Gemini 模型的一个专门版本,它针对快速响应进行了优化,同时保持了高质量。它擅长:
- 数学推理
- 逻辑演绎
- 逐步分析
- 结构化思维
安装
前提条件
- Node.js (v18 或更高版本)
- npm
- Claude Desktop
- Google Gemini API 密钥
设置
- 克隆此存储库:
git clone https://github.com/falahgs/gemini-thinking-mcp.git
cd gemini-thinking-mcp
- 安装依赖项:
npm install
- 创建一个包含您的 Google API 密钥的
.env
文件:
GEMINI_API_KEY=your-api-key-here
- 构建项目:
npm run build
配置 Claude Desktop
要将此 MCP 服务器与 Claude Desktop 一起使用,请更新您的 Claude Desktop 配置:
-
找到您的 Claude Desktop 配置文件:
- Windows:
%APPDATA%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Windows:
-
将以下内容添加到
mcpServers
部分:
"gemini-thinking": {
"command": "node",
"args": ["/path/to/gemini-thinking-mcp/build/index.js"],
"env": {
"GEMINI_API_KEY": "your-api-key"
}
}
- 重新启动 Claude Desktop 以应用更改。
用法
配置完成后,您可以在 Claude Desktop 对话中访问 Gemini 模型:
@gemini-thinking 你能帮我逐步解决这个数学问题吗?
参数
您可以调整模型参数:
prompt
: 您为 Gemini 提供的输入文本(必需)max_tokens
: 要生成的最大 token 数(默认值:8192)temperature
: 控制随机性(默认值:0.2)
示例
以下是一些 Gemini Thinking MCP 服务器设置和用法的示例:
示例 1:安装 MCP 服务器
此示例显示了在 Claude Desktop 环境中安装和配置 Gemini Thinking MCP 服务器的过程。
示例 2:测试数学问题解决
演示 MCP 服务器逐步解决数学方程式,展示其解决问题的能力。
开发
npm run dev # 监听模式
npm run build # 构建用于生产
npm start # 运行服务器
贡献
欢迎贡献!请随时提交 Pull Request。
许可证
MIT
推荐服务器
Crypto Price & Market Analysis MCP Server
一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。
MCP PubMed Search
用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。
mixpanel
连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

Nefino MCP Server
为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。
Vectorize
将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。
Mathematica Documentation MCP server
一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。
kb-mcp-server
一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。
Research MCP Server
这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

Cryo MCP Server
一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。