
Kaltura MCP Server
一个模型上下文协议的实现,它为 AI 模型提供对 Kaltura 媒体管理功能的标准化访问,包括上传、检索元数据、搜索以及管理分类和权限。
README
Kaltura 模型上下文协议 (MCP) 服务器
Kaltura MCP 服务器是 模型上下文协议 (MCP) 的一个实现,它为 AI 模型提供对 Kaltura 媒体管理功能的访问。
概述
该服务器使 AI 模型能够:
- 上传媒体到 Kaltura
- 检索媒体元数据
- 搜索媒体
- 管理分类
- 管理用户和权限
通过实现模型上下文协议,该服务器允许 AI 模型以标准化的方式与 Kaltura 的 API 交互,从而更容易将 Kaltura 的功能集成到 AI 工作流程中。
要求
- Python: 3.10 或更高版本 (官方支持 3.10, 3.11, 3.12)
- 操作系统: Linux, macOS, Windows
- 依赖项: 完整的依赖项列表请参见
pyproject.toml
仓库结构
kaltura-mcp-public
仓库包含完整的、自包含的 Kaltura MCP 服务器实现,包括:
- 所有必要的代码
- 完整的文档
- Docker 支持
- 安装脚本
- 示例客户端
- 测试脚本
安装
使用 Docker
选项 1:使用预构建的 Docker 镜像
最简单的入门方法是使用我们预构建的多架构 Docker 镜像(支持 x86_64/amd64 和 ARM64/Apple Silicon):
# 拉取最新镜像
docker pull ghcr.io/zoharbabin/kaltura-mcp:latest
# 创建配置文件
cp config.yaml.example config.yaml
# 使用您的 Kaltura API 凭据编辑 config.yaml
# 运行容器
docker run -p 8000:8000 -v $(pwd)/config.yaml:/app/config.yaml ghcr.io/zoharbabin/kaltura-mcp:latest
选项 2:使用 Docker Compose 在本地构建
或者,您可以在本地构建镜像:
# 克隆仓库
git clone https://github.com/zoharbabin/kaltura-mcp.git
cd kaltura-mcp
# 使用 Docker Compose 构建并运行
docker-compose up
手动安装
# 克隆仓库
git clone https://github.com/zoharbabin/kaltura-mcp.git
cd kaltura-mcp
# 创建虚拟环境 (需要 Python 3.10 或更高版本)
python -m venv venv
source venv/bin/activate # 在 Windows 上: venv\Scripts\activate
# 安装依赖项
pip install -e .
# 配置服务器
cp config.yaml.example config.yaml
# 使用您的 Kaltura API 凭据编辑 config.yaml
# 运行服务器
python -m kaltura_mcp.server
配置
Kaltura MCP 服务器支持统一的配置系统,该系统可与 YAML 和 JSON 格式一起使用。 开始:
- 将
config.yaml.example
复制到config.yaml
并使用您的 Kaltura API 凭据进行编辑:
kaltura:
partner_id: YOUR_PARTNER_ID
admin_secret: YOUR_ADMIN_SECRET
user_id: YOUR_USER_ID
service_url: https://www.kaltura.com/api_v3
- 您还可以使用环境变量进行配置:
export KALTURA_PARTNER_ID=YOUR_PARTNER_ID
export KALTURA_ADMIN_SECRET=YOUR_ADMIN_SECRET
export KALTURA_USER_ID=YOUR_USER_ID
有关更详细的配置选项,请参见 配置指南。
用法
与 Claude 一起使用
要将 Kaltura MCP 服务器与 Claude 一起使用,请参见 与 Claude 一起使用 指南。
与 MCP CLI 一起使用
要将 Kaltura MCP 服务器与 MCP CLI 一起使用,请参见 与 MCP CLI 一起使用 指南。
以编程方式
要以编程方式使用 Kaltura MCP 服务器,请参见 examples 目录。
可用工具
Kaltura MCP 服务器提供以下工具:
media_upload
: 上传媒体文件到 Kalturamedia_get
: 检索媒体元数据media_update
: 更新媒体元数据media_delete
: 删除媒体category_list
: 列出分类category_get
: 检索分类元数据category_add
: 添加新分类category_update
: 更新分类元数据category_delete
: 删除分类user_list
: 列出用户user_get
: 检索用户元数据user_add
: 添加新用户user_update
: 更新用户元数据user_delete
: 删除用户
可用资源
Kaltura MCP 服务器提供以下资源:
media://{entry_id}
: 媒体条目元数据category://{category_id}
: 分类元数据user://{user_id}
: 用户元数据
贡献
有关如何为此项目做出贡献的详细信息,请参见 CONTRIBUTING.md。
许可证
该项目已获得 AGPLv3 许可证的许可 - 有关详细信息,请参见 LICENSE 文件。
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。