TxtAI MCP Server

TxtAI MCP Server

txtai 是一个一体化的嵌入数据库,用于语义搜索、LLM 编排和语言模型工作流程。所有功能都可以通过其 API 提供,并且该 API 支持 MCP。 文档:https://neuml.github.io/txtai/api/mcp/

Category
访问服务器

README

<p align="center"> <b>一体化嵌入数据库</b> </p>

<p align="center"> <a href="https://github.com/neuml/txtai/releases"> <img src="https://img.shields.io/github/release/neuml/txtai.svg?style=flat&color=success" alt="Version"/> </a> <a href="https://github.com/neuml/txtai"> <img src="https://img.shields.io/github/last-commit/neuml/txtai.svg?style=flat&color=blue" alt="GitHub last commit"/> </a> <a href="https://github.com/neuml/txtai/issues"> <img src="https://img.shields.io/github/issues/neuml/txtai.svg?style=flat&color=success" alt="GitHub issues"/> </a> <a href="https://join.slack.com/t/txtai/shared_invite/zt-1cagya4yf-DQeuZbd~aMwH5pckBU4vPg"> <img src="https://img.shields.io/badge/slack-join-blue?style=flat&logo=slack&logocolor=white" alt="Join Slack"/> </a> <a href="https://github.com/neuml/txtai/actions?query=workflow%3Abuild"> <img src="https://github.com/neuml/txtai/workflows/build/badge.svg" alt="Build Status"/> </a> <a href="https://coveralls.io/github/neuml/txtai?branch=master"> <img src="https://img.shields.io/coverallsCoverage/github/neuml/txtai" alt="Coverage Status"> </a> </p>

txtai 是一个一体化嵌入数据库,用于语义搜索、LLM 编排和语言模型工作流程。

architecture architecture

嵌入数据库是向量索引(稀疏和密集)、图网络和关系数据库的结合。

这个基础支持向量搜索,并且/或者作为大型语言模型 (LLM) 应用程序的强大知识来源。

构建自主代理、检索增强生成 (RAG) 流程、多模型工作流程等等。

txtai 功能摘要:

  • 🔎 具有 SQL、对象存储、主题建模、图分析和多模态索引的向量搜索
  • 📄 为文本、文档、音频、图像和视频创建嵌入
  • 💡 由语言模型驱动的管道,运行 LLM 提示、问答、标记、转录、翻译、摘要等
  • ↪️️ 将管道连接在一起并聚合业务逻辑的工作流程。txtai 进程可以是简单的微服务或多模型工作流程。
  • 🤖 将嵌入、管道、工作流程和其他代理智能连接在一起以自主解决复杂问题的代理
  • ⚙️ Web 和模型上下文协议 (MCP) API。JavaScriptJavaRustGo 的绑定可用。
  • 🔋 包含默认设置,可快速启动和运行
  • ☁️ 在本地运行或使用容器编排进行扩展

txtai 使用 Python 3.10+、Hugging Face TransformersSentence TransformersFastAPI 构建。txtai 在 Apache 2.0 许可下开源。

有兴趣以简单安全的方式运行托管的 txtai 应用程序吗?然后加入 txtai.cloud 预览版以了解更多信息。

为什么选择 txtai?

why why

新的向量数据库、LLM 框架以及介于两者之间的所有内容每天都在涌现。为什么要使用 txtai 构建?

  • 通过 pipDocker 在几分钟内启动并运行
# 在几行代码中开始
import txtai

embeddings = txtai.Embeddings()
embeddings.index(["Correct", "Not what we hoped"])
embeddings.search("positive", 1)
#[(0, 0.29862046241760254)]
  • 内置 API 使使用您选择的编程语言开发应用程序变得容易
# app.yml
embeddings:
    path: sentence-transformers/all-MiniLM-L6-v2
CONFIG=app.yml uvicorn "txtai.api:app"
curl -X GET "http://localhost:8000/search?query=positive"
  • 在本地运行 - 无需将数据发送到不同的远程服务
  • 使用从微模型到大型语言模型 (LLM) 的所有模型
  • 低占用空间 - 在需要时安装其他依赖项并进行扩展
  • 通过示例学习 - 笔记本涵盖所有可用功能

用例

以下部分介绍常见的 txtai 用例。还提供了一套包含 60 多个示例笔记本和应用程序的综合集合。

语义搜索

构建语义/相似性/向量/神经搜索应用程序。

demo

传统的搜索系统使用关键字来查找数据。语义搜索了解自然语言,并识别具有相同含义的结果,而不一定是相同的关键字。

search search

从以下示例开始。

笔记本 描述
Introducing txtai ▶️ txtai 提供的功能概述 Open In Colab
Similarity search with images 将图像和文本嵌入到同一空间以进行搜索 Open In Colab
Build a QA database 使用语义搜索进行问题匹配 Open In Colab
Semantic Graphs 探索主题、数据连接并运行网络分析 Open In Colab

LLM 编排

自主代理、检索增强生成 (RAG)、与您的数据聊天、与大型语言模型 (LLM) 交互的管道和工作流程。

llm

请参阅下文以了解更多信息。

笔记本 描述
Prompt templates and task chains 构建模型提示并将任务与工作流程连接在一起 Open In Colab
Integrate LLM frameworks 集成 llama.cpp、LiteLLM 和自定义生成框架 Open In Colab
Build knowledge graphs with LLMs 使用 LLM 驱动的实体提取构建知识图 Open In Colab
Parsing the stars with txtai 探索已知恒星、行星、星系的星体知识图 Open In Colab

代理

代理将嵌入、管道、工作流程和其他代理连接在一起,以自主解决复杂问题。

agent

txtai 代理构建在 Transformers Agent 框架之上。这支持 txtai 支持的所有 LLM(Hugging Face、llama.cpp、OpenAI / Claude / AWS Bedrock 通过 LiteLLM)。

请参阅下面的链接以了解更多信息。

笔记本 描述
Analyzing Hugging Face Posts with Graphs and Agents 使用图分析和代理探索丰富的数据集 Open In Colab
Granting autonomy to agents 代理可以根据自己的判断迭代地解决问题 Open In Colab
Analyzing LinkedIn Company Posts with Graphs and Agents 探索如何使用 AI 改善社交媒体参与度 Open In Colab

检索增强生成

检索增强生成 (RAG) 通过使用知识库作为上下文来约束输出来降低 LLM 幻觉的风险。RAG 通常用于“与您的数据聊天”。

rag rag

txtai 的一个新颖功能是它可以同时提供答案和来源引用。

笔记本 描述
Build RAG pipelines with txtai 检索增强生成指南,包括如何创建引用 Open In Colab
Chunking your data for RAG 提取、分块和索引内容以进行有效检索 Open In Colab
Advanced RAG with graph path traversal 图路径遍历以收集复杂的数据集以进行高级 RAG Open In Colab
Speech to Speech RAG ▶️ 具有 RAG 的全周期语音到语音工作流程 Open In Colab

语言模型工作流程

语言模型工作流程,也称为语义工作流程,将语言模型连接在一起以构建智能应用程序。

flows flows

虽然 LLM 功能强大,但对于特定任务,有许多更小、更专业的模型可以更好、更快地工作。这包括用于提取式问答、自动摘要、文本到语音、转录和翻译的模型。

笔记本 描述
Run pipeline workflows ▶️ 简单而强大的结构,可有效处理数据 Open In Colab
Building abstractive text summaries 运行抽象文本摘要 Open In Colab
Transcribe audio to text 将音频文件转换为文本 Open In Colab
Translate text between languages 简化机器翻译和语言检测 Open In Colab

安装

install install

最简单的安装方法是通过 pip 和 PyPI

pip install txtai

支持 Python 3.10+。建议使用 Python 虚拟环境

有关更多信息,请参阅详细的安装说明,其中涵盖可选依赖项特定于环境的先决条件从源代码安装conda 支持 以及如何使用容器运行

模型指南

models

请参阅下表,了解当前推荐的模型。这些模型都允许商业用途,并提供速度和性能的结合。

组件 模型
嵌入 all-MiniLM-L6-v2
图像标题 BLIP
标签 - 零样本 BART-Large-MNLI
标签 - 固定 使用训练管道进行微调
大型语言模型 (LLM) Llama 3.1 Instruct
摘要 DistilBART
文本到语音 ESPnet JETS
转录 Whisper
翻译 OPUS 模型系列

模型可以作为 Hugging Face Hub 中的路径或本地目录加载。模型路径是可选的,未指定时加载默认值。对于没有推荐模型的任务,txtai 使用 Hugging Face Tasks 指南中显示的默认模型。

请参阅以下链接以了解更多信息。

由 txtai 驱动

以下应用程序由 txtai 驱动。

apps

应用程序 描述
rag 检索增强生成 (RAG) 应用程序
ragdata 为 RAG 构建知识库
paperai 用于医学/科学论文的语义搜索和工作流程
annotateai 使用 LLM 自动注释论文

除了此列表之外,还有许多其他开源项目已发表的研究 和封闭的专有/商业项目已在生产中基于 txtai 构建。

延伸阅读

further further

文档

txtai 上的完整文档,包括嵌入、管道、工作流程、API 的配置设置以及包含常见问题/问题的 FAQ,均可用。

贡献

对于那些想要为 txtai 做出贡献的人,请参阅本指南

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选