Xafari MCP
An MCP server and crawler for Xafari documentation that enables AI agents to search, retrieve pages, and extract code examples from a local index. It provides structured documentation access through stdio or HTTP interfaces for seamless IDE integration.
README
Xafari MCP
MCP-сервер и краулер для документации Xafari. Он скачивает официальные страницы, извлекает чистый текст и примеры кода, строит легковесный индекс и предоставляет инструменты для поиска и объяснений.
Зачем нужен MCP
MCP (Model Context Protocol) позволяет IDE и агентам обращаться к локальным данным
как к «инструментам». Вместо ручного поиска по сайту документации, ассистент
вызывает методы search_docs, get_page и get_examples, а сервер отвечает
структурированными данными. Это ускоряет работу, дает воспроизводимые ответы и
снижает зависимость от внешних источников.
Как MCP ускоряет работу:
- Меньше ручного поиска: вместо переходов по сайту и копипасты — один вызов
search_docs/get_page. - Мгновенная выборка: локальный индекс и кэш дают ответы быстрее, чем браузер + поиск.
- Точнее ответы: инструменты возвращают структуру (заголовки, ссылки, код), а не разрозненный текст.
- Повторяемость: один и тот же запрос даёт одинаковый результат — удобно для командной работы.
- Автодогрузка: если страницы нет в кэше, get_page может скачать её автоматически.
- Офлайн-режим: можно работать без доступа к сайту после первичного краула.
Как работает MCP в этом проекте
- Краулер
- Скачивает HTML, извлекает читабельный markdown и сохраняет в
data/pages. - Кэширует страницы и использует ETag/Last-Modified при повторных запусках.
- Из markdown строится индекс
pages.json+index.jsonдля быстрого поиска.
- Скачивает HTML, извлекает читабельный markdown и сохраняет в
- MCP-сервер читает индекс и отвечает на вызовы инструментов через stdio/http.
- IDE подключается к серверу и использует инструменты прямо в чате.
Быстрый старт
- Запустить краулер и собрать локальный индекс:
npm run crawl
- Запустить MCP-сервер (stdio):
npm run start
- Запустить HTTP-режим (опционально):
npm run start:http
- Пересобрать индекс без краулинга:
npm run reindex
Переменные окружения
DOCS_BASE_URL(по умолчанию:https://documentation.galaktika-soft.com/xafari/)MAX_PAGES_PER_SESSION(по умолчанию:1000)FETCH_ON_MISS(по умолчанию:true)DATA_DIR(по умолчанию:./data)REQUEST_TIMEOUT_MS(по умолчанию:15000)USER_AGENTLOG_FILE(по умолчанию:logs/docs-mcp.jsonl)CODE_LANGUAGES(по умолчанию:cs,js,ts,json,yaml,xml,html,css)HTTP_PORT(по умолчанию:3333)
Примеры кода
- Примеры сохраняются только для языков из
CODE_LANGUAGES. - Языки нормализуются:
c#/csharp→cs,javascript→js,typescript→ts,yml→yaml. - Если язык не разрешен — блок кода не сохраняется.
Fetch on miss
get_page может автоматически догружать страницу, если ее нет в кэше.
Управляется флагом FETCH_ON_MISS (по умолчанию true).
Подключение MCP в IDE на примере Cursor
stdio-режим (локальный запуск)
- Откройте настройки MCP в Cursor.
- Добавьте новый сервер со следующими параметрами:
name:xafari-mcpcommand:nodeargs:["C:\\Projects\\xafari-mcp\\src\\index.js"]cwd:C:\\Projects\\xafari-mcp
Пример ~/.cursor/mcp.json
{
"mcpServers": {
"xafari-mcp": {
"command": "node",
"args": ["C:\\Projects\\xafari-mcp\\src\\index.js"],
"cwd": "C:\\Projects\\xafari-mcp"
}
}
}
stdio-режим (через Docker)
Если сервис запущен в Docker, можно использовать docker exec:
{
"mcpServers": {
"xafari-mcp": {
"command": "docker",
"args": ["exec", "-i", "mcp-service", "node", "/app/src/index.js"]
}
}
}
HTTP-режим (SSE)
Если сервис запущен в HTTP-режиме (например, через docker compose), используйте SSE transport:
{
"mcpServers": {
"xafari-mcp": {
"url": "http://localhost:3333/sse"
}
}
}
Примечание: HTTP-режим требует, чтобы сервис был запущен с npm run start:http или через docker compose (который автоматически запускает HTTP-сервер).
- Перезапустите MCP-сервер в Cursor.
Чтобы проверить в окне чата напишите
list tools
Запросите какую-либо документацию с источника
Запуск через docker compose
git clone https://github.com/QuAzI/xafari-mcp.git
cd xafari-mcp
docker compose up -d
Запуск через npx
Локально в репозитории:
npm installnpx .— запустит MCP-сервер (stdio) черезsrc/index.js.
Чтобы запускать из любого каталога:
npm linknpx --no-install xafari-mcp
Запуск прямо из GitHub (без публикации в npm):
npx github:QuAzI/xafari-mcp
Опции краулера:
npm run crawl— по умолчанию скачивает только новые страницы.npm run crawl -- --force— перекачать все страницы.npm run crawl -- --no-only-new— отключить режим "только новые".
Примечание:
--no-only-newделает полный обход с кешем (ETag/Last-Modified), а--forceперекачивает все без учета кеша.
MCP-инструменты
search_docs(query, limit?)- Ищет по индексу документации и возвращает список результатов с
title,url,excerpt,headings. limitограничивает количество результатов (1–20, по умолчанию 5).
- Ищет по индексу документации и возвращает список результатов с
get_page(slug | url)- Возвращает полный контент страницы (markdown-текст, headings, codeBlocks, links, breadcrumbs).
slug— короткая форма (например,doc_recursive_helper).url— полный адрес страницы документации.
get_examples(topic, limit?)- Ищет страницы по теме и извлекает фрагменты кода.
- Делает search_docs(topic, limit) по индексу.
- Берёт первые подходящие страницы и вытаскивает их codeBlocks.
- Возвращает список примеров с slug, title, url, code.
limitограничивает количество примеров (1–20, по умолчанию 5).
- Ищет страницы по теме и извлекает фрагменты кода.
explain_concept(name)- Возвращает краткое описание концепта и ссылку на наиболее релевантную страницу.
- Делает search_docs(name, 3).
- Берёт самый релевантный результат и возвращает:
- summary — это excerpt из результата,
- page — основная ссылка,
- related — оставшиеся 1–2 страницы.
- В
relatedдобавляет похожие разделы документации.
- Возвращает краткое описание концепта и ссылку на наиболее релевантную страницу.
stdio-режим
stdio — MCP-сервер общается с IDE через стандартные потоки ввода/вывода. Это нативный режим MCP: быстрее, проще в настройке, без сети и портов. Подходит для локального использования.
Транспорт и формат обмена:
- Общение по stdin/stdout.
- Формат: JSON-RPC 2.0, построчно или через Content-Length.
- Построчно — каждое сообщение это одна JSON-строка, разделенная \n. Сервер читает строки и парсит каждую как отдельный JSON-RPC запрос.
- Через Content-Length — перед сообщением идут заголовки (как в LSP). Сервер сначала читает длину, потом ровно столько байт JSON-тела.
Использовать можно не только из IDE, но и как локальную сервис-утилиту:
- CLI/скрипты: можно запускать сервер и слать ему JSON-RPC из скриптов (например, на CI или для массового прогрева кэша).
- Мост/прокси: stdio удобнее как backend для собственного HTTP-прокси — он проще, чем держать внутри сервера HTTP-слой.
- Интеграции: другой агент/процесс может общаться с MCP через pipe/stdin-stdout, без открытого порта.
- Безопасность: нет открытых портов, меньше требований к сетевой конфигурации.
Примеры stdio-запросов
{
"jsonrpc": "2.0",
"id": 1,
"method": "tools/call",
"params": {
"name": "search_docs",
"arguments": {
"query": "Performance Enhancement"
}
}
}
HTTP-режим
http — режим, в котором MCP-сервер поднимает HTTP-endpoint и принимает запросы по сети. Удобно для внешних клиентов и инструментов (например, HTTPYac), но требует поднять отдельный процесс и порт.
- Сервер поднимается командой
npm run start:http(портHTTP_PORT, по умолчанию3333). - Каждый инструмент доступен через
POST /tools/{toolName}с JSON-телом аргументов. - Для проверки доступен
GET /health.
Примеры HTTP-запросов
Подходят для инструментов типа HTTPYac, плагинов HTTP Request в IDE.
POST http://localhost:3333/tools/search_docs
Content-Type: application/json
{
"query": "Как работает модуль Performance Enhancement?",
"limit": 5
}
POST http://localhost:3333/tools/search_docs
Content-Type: application/json
{
"query": "подключение к DevExpress XAF",
"limit": 5
}
POST http://localhost:3333/tools/get_page
Content-Type: application/json
{
"slug": "doc_recursive_helper"
}
POST http://localhost:3333/tools/get_page
Content-Type: application/json
{
"url": "https://documentation.galaktika-soft.com/xafari/doc_recursive_helper"
}
POST http://localhost:3333/tools/get_examples
Content-Type: application/json
{
"topic": "Business Components",
"limit": 5
}
POST http://localhost:3333/tools/explain_concept
Content-Type: application/json
{
"name": "Security System"
}
Формат хранения
- Сырые страницы сохраняются в
data/pages/*.mdс метаданными в заголовке. pages.jsonформируется из markdown-файлов после завершения краулинга.- При сохранении учитываются breadcrumbs: страницы попадают в поддиректории по темам.
- Ассеты (PDF/картинки) сохраняются в
data/assets, ссылки в markdown остаются абсолютными.
Ручное пополнение документации
- Создайте
.mdвdata/pages(подкаталоги = breadcrumbs). - Добавьте YAML-front-matter с минимумом полей:
--- slug: my_custom_doc url: https://example.local/my_custom_doc title: Мой документ breadcrumbs: - Custom - Docs --- - Добавьте тело документа ниже фронт-маттера.
- Пересоберите индекс без краулинга:
npm run reindex
Логи
Структурированные логи пишутся в data/logs/xafari-mcp.jsonl (JSON Lines).
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。