Axiom

Axiom

一个为 Axiom 实现的模型上下文协议服务器,它允许 AI 代理使用 Axiom 处理语言 (APL) 查询你的数据。

数据库交互
访问服务器

README

mcp-server-axiom

一个为 Axiom 实现的 模型上下文协议 (Model Context Protocol) 服务器,它使 AI 代理能够使用 Axiom Processing Language (APL) 查询您的数据。

状态

与 Claude 桌面应用程序配合使用。实现了两个 MCP 工具

  • queryApl: 执行 APL 查询以访问 Axiom 数据集
  • listDatasets: 列出可用的 Axiom 数据集

暂不支持 MCP 资源提示

安装

发布版本

发布页面 下载最新的构建二进制文件。

源码

go install github.com/axiomhq/axiom-mcp@latest

配置

使用以下方法之一进行配置:

配置文件示例 (config.txt):

token xaat-your-token
url https://api.axiom.co
query-rate 1
query-burst 1
datasets-rate 1
datasets-burst 1

命令行标志:

axiom-mcp \
  -token xaat-your-token \
  -url https://api.axiom.co \
  -query-rate 1 \
  -query-burst 1 \
  -datasets-rate 1 \
  -datasets-burst 1

环境变量:

export AXIOM_TOKEN=xaat-your-token
export AXIOM_URL=https://api.axiom.co
export AXIOM_ORG_ID=your-org-id
export AXIOM_QUERY_RATE=1
export AXIOM_QUERY_BURST=1
export AXIOM_DATASETS_RATE=1
export AXIOM_DATASETS_BURST=1

用法

  1. 创建一个配置文件:
echo "token xaat-your-token" > config.txt
  1. 配置 Claude 应用程序以使用 MCP 服务器:
code ~/Library/Application\ Support/Claude/claude_desktop_config.json
{
  "mcpServers": {
    "axiom": {
      "command": "/path/to/your/axiom-mcp-binary",
      "args" : ["--config", "/path/to/your/config.txt"],
      "env": { // 或者,您可以在此处设置环境变量
        "AXIOM_TOKEN": "xaat-your-token",
        "AXIOM_URL": "https://api.axiom.co",
        "AXIOM_ORG_ID": "your-org-id"
      }
    }
  }
}

许可证

MIT 许可证 - 参见 LICENSE 文件

推荐服务器

Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选
Exa MCP Server

Exa MCP Server

一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。

精选
BigQuery MCP Server

BigQuery MCP Server

这是一个服务器,可以让你的大型语言模型(LLM,比如Claude)直接与你的BigQuery数据对话!可以把它想象成一个友好的翻译器,它位于你的AI助手和数据库之间,确保它们可以安全高效地进行交流。

精选
mcp-perplexity

mcp-perplexity

Perplexity API 的 MCP 服务器。

精选
MCP Web Research Server

MCP Web Research Server

一个模型上下文协议服务器,使 Claude 能够通过集成 Google 搜索、提取网页内容和捕获屏幕截图来进行网络研究。

精选