Axiom
一个为 Axiom 实现的模型上下文协议服务器,它允许 AI 代理使用 Axiom 处理语言 (APL) 查询你的数据。
README
mcp-server-axiom
一个为 Axiom 实现的 模型上下文协议 (Model Context Protocol) 服务器,它使 AI 代理能够使用 Axiom Processing Language (APL) 查询您的数据。
状态
与 Claude 桌面应用程序配合使用。实现了两个 MCP 工具:
- queryApl: 执行 APL 查询以访问 Axiom 数据集
- listDatasets: 列出可用的 Axiom 数据集
安装
发布版本
从 发布页面 下载最新的构建二进制文件。
源码
go install github.com/axiomhq/axiom-mcp@latest
配置
使用以下方法之一进行配置:
配置文件示例 (config.txt):
token xaat-your-token
url https://api.axiom.co
query-rate 1
query-burst 1
datasets-rate 1
datasets-burst 1
命令行标志:
axiom-mcp \
-token xaat-your-token \
-url https://api.axiom.co \
-query-rate 1 \
-query-burst 1 \
-datasets-rate 1 \
-datasets-burst 1
环境变量:
export AXIOM_TOKEN=xaat-your-token
export AXIOM_URL=https://api.axiom.co
export AXIOM_ORG_ID=your-org-id
export AXIOM_QUERY_RATE=1
export AXIOM_QUERY_BURST=1
export AXIOM_DATASETS_RATE=1
export AXIOM_DATASETS_BURST=1
用法
- 创建一个配置文件:
echo "token xaat-your-token" > config.txt
- 配置 Claude 应用程序以使用 MCP 服务器:
code ~/Library/Application\ Support/Claude/claude_desktop_config.json
{
"mcpServers": {
"axiom": {
"command": "/path/to/your/axiom-mcp-binary",
"args" : ["--config", "/path/to/your/config.txt"],
"env": { // 或者,您可以在此处设置环境变量
"AXIOM_TOKEN": "xaat-your-token",
"AXIOM_URL": "https://api.axiom.co",
"AXIOM_ORG_ID": "your-org-id"
}
}
}
}
许可证
MIT 许可证 - 参见 LICENSE 文件
推荐服务器
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。
BigQuery MCP Server
这是一个服务器,可以让你的大型语言模型(LLM,比如Claude)直接与你的BigQuery数据对话!可以把它想象成一个友好的翻译器,它位于你的AI助手和数据库之间,确保它们可以安全高效地进行交流。
mcp-perplexity
Perplexity API 的 MCP 服务器。
MCP Web Research Server
一个模型上下文协议服务器,使 Claude 能够通过集成 Google 搜索、提取网页内容和捕获屏幕截图来进行网络研究。