Chronulus MCP Server
实现了 Chronulus AI 预测与预测代理与 Claude 的集成,允许用户直接通过 Claude 的界面访问 AI 驱动的预测和预测功能。
README
<div align="center"> <img width="150px" src="https://www.chronulus.com/brand-assets/chronulus-logo-blue-on-alpha-square.png" alt="Chronulus AI"> <h1 align="center">Chronulus 的 MCP 服务器</h1> <h3 align="center">在 Claude 中与 Chronulus AI 预测和预测代理聊天</h3> </div>
快速入门:Claude 桌面版
安装
Claude 桌面版目前可在 macOS 和 Windows 上使用。
在此处安装 Claude 桌面版 here
配置
按照 此处 的通用说明配置 Claude 桌面客户端。
您可以在以下位置之一找到您的 Claude 配置:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Windows:
%APPDATA%\Claude\claude_desktop_config.json
然后选择最适合您需求的方法,并将其添加到您的 claude_desktop_config.json
中
<details> <summary>使用 pip</summary>
(选项 1)从 PyPI 安装发布版本
pip install chronulus-mcp
(选项 2)从 Github 安装
git clone https://github.com/ChronulusAI/chronulus-mcp.git
cd chronulus-mcp
pip install .
{
"mcpServers": {
"chronulus-agents": {
"command": "python",
"args": ["-m", "chronulus_mcp"],
"env": {
"CHRONULUS_API_KEY": "<YOUR_CHRONULUS_API_KEY>"
}
}
}
}
请注意,如果您收到类似 "MCP chronulus-agents: spawn python ENOENT" 的错误,
那么您很可能需要提供 python
的绝对路径。
例如,使用 /Library/Frameworks/Python.framework/Versions/3.11/bin/python3
而不是仅仅使用 python
</details>
<details> <summary>使用 docker</summary>
在这里,我们将构建一个名为“chronulus-mcp”的 docker 镜像,我们可以在 Claude 配置中重复使用它。
git clone https://github.com/ChronulusAI/chronulus-mcp.git
cd chronulus-mcp
docker build . -t 'chronulus-mcp'
在您的 Claude 配置中,请确保最终参数与您在构建命令中赋予 docker 镜像的名称相匹配。
{
"mcpServers": {
"chronulus-agents": {
"command": "docker",
"args": ["run", "-i", "--rm", "-e", "CHRONULUS_API_KEY", "chronulus-mcp"],
"env": {
"CHRONULUS_API_KEY": "<YOUR_CHRONULUS_API_KEY>"
}
}
}
}
</details>
<details> <summary>使用 uvx</summary>
uvx
将从 PyPI 注册表中提取最新版本的 chronulus-mcp
,安装它,然后运行它。
{
"mcpServers": {
"chronulus-agents": {
"command": "uvx",
"args": ["chronulus-mcp"],
"env": {
"CHRONULUS_API_KEY": "<YOUR_CHRONULUS_API_KEY>"
}
}
}
}
请注意,如果您收到类似 "MCP chronulus-agents: spawn uvx ENOENT" 的错误,那么您很可能需要:
- 安装 uv 或
- 提供
uvx
的绝对路径。例如,使用/Users/username/.local/bin/uvx
而不是仅仅使用uvx
</details>
其他服务器(文件系统、Fetch 等)
在我们的演示中,我们使用了第三方服务器,例如 fetch 和 filesystem。
有关安装和配置第三方服务器的详细信息,请参考服务器维护者提供的文档。
以下是如何在您的 claude_desktop_config.json
中配置文件系统和 fetch 以及 Chronulus 的示例:
{
"mcpServers": {
"chronulus-agents": {
"command": "uvx",
"args": ["chronulus-mcp"],
"env": {
"CHRONULUS_API_KEY": "<YOUR_CHRONULUS_API_KEY>"
}
},
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/path/to/AIWorkspace"
]
},
"fetch": {
"command": "uvx",
"args": ["mcp-server-fetch"]
}
}
}
Claude 偏好设置
为了简化您在多个工具集中使用 Claude 的体验,最好将您的偏好设置添加到 Claude 设置下。
您可以通过以下几种方式升级您的 Claude 偏好设置:
- 从 Claude 桌面版:
设置 -> 常规 -> Claude 设置 -> 个人资料(选项卡)
- 从 claude.ai/settings:
个人资料(选项卡)
偏好设置在 Claude 桌面版和 Claude.ai(Web 界面)之间共享。因此,您的说明需要在两种体验中都有效。
以下是我们用于实现演示中显示的结果的偏好设置:
## 工具相关协议
以下说明仅在工具/MCP 服务器可访问时适用。
### 文件系统 - 工具说明
- 不要对二进制文件(例如,图像、pdf、docx)使用“read_file”或“read_multiple_files”。
- 在处理二进制文件(例如,图像、pdf、docx)时,使用“get_info”而不是“read_*”工具来检查文件。
### Chronulus 代理 - 工具说明
- 使用 Chronulus 时,首选使用 TextFromFile、PdfFromFile 和 ImageFromFile 等输入字段类型,而不是直接扫描文件。
- 在绘制 Chronulus 的预测时,始终在图下方包含 Chronulus 提供的预测解释,并将其标记为 Chronulus 解释。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。