MCP (Model Context Protocol) Server: Intelligent Conversational Platform

MCP (Model Context Protocol) Server: Intelligent Conversational Platform

Chris-June

研究与数据
访问服务器

README

MCP (模型上下文协议) 服务器:智能对话平台

概述

MCP(模型上下文协议)是一个复杂的 AI 驱动服务器,旨在提供智能的、具有上下文感知能力的对话功能。这个独立的服务器利用多个 LLM 提供商(OpenAI、Anthropic 和 Google Gemini)、FastAPI 和 Pyppeteer 的网页浏览功能,从而在各种业务领域提供细致的、与上下文相关的响应。

注意: 本仓库仅包含 MCP 服务器的实现。虽然文档中提供了前端示例用于说明,但实际的前端实现不包含在本仓库中。MCP 服务器旨在通过其 RESTful API 与任何前端集成。

主要特性

  • 🤖 基于角色的 AI 顾问系统,具有可定制的指令和语气
  • 🧠 具有向量相似度搜索的语义记忆管理
  • 🌊 实时流式响应,以改善用户体验
  • 🌐 集成的网页浏览功能,用于 AI 辅助研究
  • 🔄 基于对话触发器的动态上下文切换
  • 📝 增强的 Markdown 格式,用于呈现专业外观的内容
  • 🖼️ 多模态上下文支持,用于处理图像和其他媒体
  • 🔍 通过关键词、领域和语气进行高级角色搜索和过滤
  • 🔗 具有标签、共享和继承的高级记忆功能
  • 🔄 多 LLM 提供商支持(OpenAI、Anthropic、Google Gemini)

技术栈

  • 后端: Python with asyncio
  • Web 框架: FastAPI
  • AI 模型:
    • OpenAI GPT-4o-mini
    • Anthropic Claude 模型
    • Google Gemini 模型
  • 浏览器自动化: Pyppeteer (Puppeteer 的 Python 端口)
  • API 文档: Swagger UI via FastAPI

设置和安装

前提条件

  • Python 3.9+
  • Node.js 18+ 和 npm
  • OpenAI API 密钥
  • Git (用于克隆仓库)

安装步骤

  1. 克隆仓库
  2. 创建一个虚拟环境: python -m venv venv
  3. 激活虚拟环境:
    • Windows: venv\Scripts\activate
    • macOS/Linux: source venv/bin/activate
  4. 安装依赖: pip install -r requirements.txt
  5. 配置环境变量 (见下文)
  6. 运行服务器: python -m app.main
  7. 访问 API 文档 at http://localhost:8000/docs

配置

基于 .env.example 创建一个 .env 文件,包含以下变量:

# OpenAI 配置
OPENAI_API_KEY=your_openai_api_key
OPENAI_MODEL=gpt-4o-mini
OPENAI_VISION_MODEL=gpt-4o

# Anthropic 配置 (可选)
ANTHROPIC_API_KEY=your_anthropic_api_key
ANTHROPIC_MODEL=claude-3-haiku-20240307

# Google Gemini 配置 (可选)
GEMINI_API_KEY=your_gemini_api_key
GEMINI_MODEL=gemini-1.5-pro

# 默认提供商配置
DEFAULT_PROVIDER=openai  # Options: openai, anthropic, gemini
EMBEDDING_MODEL=text-embedding-ada-002

最近的改进

针对特定领域的上下文分析

  • 实现了针对各种业务领域的领域特定分析能力
  • 为财务、市场营销、运营、销售等创建了专门的分析模板
  • 添加了自动提取领域特定术语和模式的功能
  • 将领域特定指标和框架集成到 AI 响应中
  • 使用领域特定指导增强了系统提示
  • 创建了用于领域分析和模板管理的 API 端点
  • 提高了 AI 响应对于特定领域的关联性和特异性

高级记忆功能

  • 实现了记忆标签和分类系统,以实现更好的组织
  • 创建了具有基于角色的权限的分层记忆访问控制
  • 设计了基于角色的记忆继承机制,用于知识共享
  • 添加了角色之间可配置的记忆共享权限
  • 开发了用于跨角色记忆检索的语义搜索
  • 实现了记忆嵌入和相似度评分,用于相关性排序
  • 添加了用于记忆共享和继承管理的 API 端点
  • 创建了高级记忆功能的综合文档

角色搜索和过滤

  • 实现了高级搜索功能,用于通过关键词查找角色
  • 添加了基于领域的过滤,以查找具有特定专业知识的角色
  • 创建了基于语气的过滤,用于通信风格偏好
  • 添加了用于角色搜索的 API 端点,具有组合过滤选项
  • 实现了领域发现端点,以检索所有唯一领域
  • 为搜索和过滤功能创建了全面的测试套件

多模态上下文支持

  • 添加了对处理图像以及文本查询的支持
  • 实现了专用的多模态处理服务
  • 创建了用于多模态内容处理的 API 端点
  • 添加了媒体内容的文件上传功能
  • 与跨提供商的具有视觉功能的模型集成
  • 添加了对多模态响应的流式传输支持

多 LLM 提供商支持

  • 实现了对多个 LLM 提供商的支持(OpenAI、Anthropic、Google Gemini)
  • 创建了具有通用接口的模块化提供商架构
  • 为每个 LLM 服务添加了提供商特定的优化
  • 实现了所有 API 端点的提供商选择

测试脚本改进

  • 更新了所有测试脚本,以在所有端点上一致地使用 API 前缀
  • 通过正确跳过未实现的端点来增强测试结构
  • 通过使用一致的客户端 fixtures 提高了测试可靠性
  • 为角色管理、领域分析和记忆功能添加了全面的测试覆盖率
  • 实现了对各种服务的正确模拟,以隔离测试
  • 修复了测试文件中的导入错误和 KeyError 问题
  • 为直接提供商访问创建了专用提供商路由
  • 当主要提供商缺乏能力时,为多模态内容添加了回退机制
  • 实现了提供商发现端点以列出可用的提供商
  • 更新了配置以支持提供商特定的设置

增强的格式

  • 向所有提示添加了显式格式指令
  • 在不同内容类型中标准化了 Markdown 格式
  • 改进了格式化内容的客户端渲染
  • 增强了 CSS 样式以提高可读性

流式传输功能

  • 实现了 AI 响应的实时流式传输
  • 添加了流式传输状态的可视指示器
  • 修复了 SSE 处理中的字符串文字问题
  • 改进了 UI 以显示不同的加载状态

综合测试套件

  • 为所有主要组件创建了特定于功能的测试脚本
  • 实现了上下文切换功能的测试
  • 添加了记忆功能的测试,包括标记和检索
  • 创建了具有模拟响应的网页浏览功能的测试
  • 实现了多个 LLM 提供商集成的测试
  • 添加了领域分析功能的测试
  • 创建了角色编辑和管理功能的测试
  • 实现了角色搜索和过滤的测试
  • 添加了多模态内容处理的测试
  • 创建了包含使用说明的综合测试文档

开发

  • 使用 requirements.txt 进行服务器依赖管理
  • 使用 package.json 进行客户端依赖管理
  • 每次迭代后,使用新功能和改进更新 todo.txt
  • 每次实现新功能后,更新 README.md

文档

详细文档位于 docs 目录中:

  • ROUTES.md: API 端点及其功能
  • MODELS.md: 数据结构和模式
  • ARCHITECTURE.md: 系统设计和组件交互
  • SERVICES.md: 核心业务逻辑实现
  • SERVER_CAPABILITIES.md: 特性和能力
  • multimodal_context_support.md: 多模态处理能力
  • role_search_filtering.md: 角色搜索和过滤功能
  • role_editing.md: 角色管理和编辑功能
  • CONTEXT_SWITCHING.md: 角色之间的动态上下文切换
  • advanced_memory_features.md: 高级记忆功能,包括标记、共享和继承

贡献

请阅读 CONTRIBUTING.md 以了解我们的行为准则以及提交拉取请求的过程。

许可证

[指定许可证]

联系方式

[您的联系方式]

小型企业执行顾问

您的虚拟 C 级管理团队

一个 AI 驱动的平台,通过充当虚拟 C 级管理人员的专业 AI 代理,为小型企业提供执行级别的咨询服务。

小型企业执行顾问

目录

概述

小型企业执行顾问是一个强大的平台,旨在通过 AI 驱动的顾问为小型企业提供执行级别的指导和专业知识。我们的平台提供一套虚拟 C 级管理人员,每个都专注于不同的业务职能,以帮助小型企业主做出更好的决策并发展他们的公司。

通过涵盖 CEO、CFO、CMO、HR、运营和销售职能的顾问,小型企业主可以获得战略指导、财务规划、营销专业知识和运营改进,而无需雇用全职管理人员的成本。

该平台允许您:

  1. 咨询不同业务领域的专业执行顾问
  2. 访问包含关键指标和见解的综合业务仪表板
  3. 根据您的特定业务环境接收个性化建议
  4. 通过直观的界面跟踪业务目标和进度

特性

执行顾问特性

  • CEO 顾问: 关于业务领导力、增长和决策的战略指导
  • CFO 顾问: 财务战略、现金流管理和投资规划
  • CMO 顾问: 营销战略、品牌发展和客户获取
  • HR 顾问: 人才管理、员工敬业度和团队发展
  • 运营顾问: 流程优化、效率改进和运营扩展
  • 销售顾问: 销售战略、渠道开发和客户关系管理
  • 上下文记忆: 顾问记住以前的咨询以保持连续性
  • 特定于业务的建议: 基于您的业务环境量身定制的指导
  • 业务仪表板: 在一个地方可视化关键指标和顾问见解

平台特性

  • 现代界面: 使用 React 和 TailwindCSS 构建的干净、专业的设计
  • 响应式设计: 具有深色/浅色主题支持的移动友好界面
  • 自定义顾问创建: 为您独特的业务需求创建专业顾问
  • 互动咨询: 与执行顾问的实时对话界面
  • 流式响应: 顾问在生成时的实时响应
  • OpenAI 集成: 由 OpenAI 的 GPT-4o-mini 模型提供支持,以提供高质量的建议
  • 业务指标: 跟踪收入、客户、转化率和支出
  • 顾问见解: 查看和管理来自不同执行顾问的业务见解
  • 业务目标: 设置和跟踪实现重要业务里程碑的进度
  • 网页浏览能力: 集成的网页浏览器,用于 AI 辅助研究和信息收集
  • 多模态分析: 处理和分析图像以及文本,以获得更丰富的上下文

架构

系统架构

MCP 服务器遵循一个干净、模块化的架构:

┌─────────────┐     ┌─────────────┐     ┌─────────────┐
│  React      │     │  FastAPI    │     │  OpenAI     │
│  Client     │────▶│  Server     │────▶│  API        │
└─────────────┘     └─────────────┘     └─────────────┘
                           │
                           ▼
                    ┌─────────────┐
                    │  In-Memory  │
                    │  Database   │
                    └─────────────┘
  • 客户端层: 用于用户交互的 React 应用程序
  • API 层: 处理请求和业务逻辑的 FastAPI 服务器
  • 服务层: 用于角色管理、记忆处理和 AI 处理的核心服务
  • 数据层: 用于角色和记忆的内存存储

数据流

  1. 用户创建角色并通过 React 客户端与它们交互
  2. 客户端向 FastAPI 服务器发送 API 请求
  3. 服务器处理请求,管理角色和记忆
  4. 对于查询处理,服务器:
    • 检索指定的角色
    • 获取相关的记忆
    • 构建一个具有上下文感知的提示
    • 将提示发送到 OpenAI 的 API
    • 将响应返回给客户端

安装

前提条件

  • Python 3.11+
  • Node.js 18+ 和 npm
  • OpenAI API 密钥
  • Git (用于克隆仓库)

服务器设置

  1. 克隆仓库:
git clone https://github.com/Chris-June/MCP-GPT-Builder.git
cd MCP-GPT-Builder
  1. 创建并激活一个虚拟环境:
python -m venv venv
source venv/bin/activate  # On Windows: venv\Scripts\activate
  1. 安装服务器依赖:
pip install -r requirements.txt
  1. 安装网页浏览器依赖:
pip install -r requirements-browser.txt

客户端设置

  1. 导航到客户端目录:
cd client
  1. 安装客户端依赖:
npm install

环境配置

  1. 在根目录中基于示例创建一个 .env 文件:
cp .env.example .env
  1. 打开 .env 文件并配置以下变量:
OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o-mini  # The model to use for AI processing
SERVER_HOST=0.0.0.0  # Host to bind the server to
SERVER_PORT=8000  # Port to run the server on

用法

启动服务器

  1. 从根目录,在激活虚拟环境的情况下:
uvicorn server:app --reload --host 0.0.0.0 --port 8000

服务器将在 http://localhost:8000 上可用。

  1. 访问 API 文档 at http://localhost:8000/docs 以探索可用的端点。

启动客户端

  1. 从客户端目录,在一个单独的终端中:
npm run dev

客户端将在 http://localhost:5173 上可用。

API 文档

MCP 服务器提供了一个全面的 API,用于管理角色、记忆和处理查询:

角色管理

  • GET /api/v1/roles - 列出所有角色
  • GET /api/v1/roles/{role_id} - 获取特定角色
  • POST /api/v1/roles - 创建一个新角色
  • PUT /api/v1/roles/{role_id} - 更新一个角色
  • DELETE /api/v1/roles/{role_id} - 删除一个角色

记忆管理

  • GET /api/v1/memories/{role_id} - 获取角色的记忆
  • POST /api/v1/memories - 创建一个新记忆
  • DELETE /api/v1/memories/{role_id} - 清除角色的所有记忆

查询处理

  • POST /api/v1/roles/process - 使用角色特定的上下文处理查询
  • POST /api/v1/roles/process-stream - 处理具有流式响应的查询

领域分析

  • GET /api/v1/domain-analysis/domains - 获取所有可用的领域模板
  • GET /api/v1/domain-analysis/domains/{domain} - 获取特定领域模板
  • POST /api/v1/domain-analysis/analyze - 基于角色领域分析内容

多模态处理

  • POST /api/v1/multimodal/process - 处理多模态内容(文本 + 图像)
  • POST /api/v1/multimodal/process-stream - 处理具有流式响应的多模态内容

LLM 提供商管理

  • GET /api/v1/providers - 列出所有可用的 LLM 提供商
  • GET /api/v1/providers/{provider_id} - 获取特定提供商的详细信息
  • POST /api/v1/providers/{provider_id}/process - 使用特定提供商处理查询

上下文切换

  • POST /api/v1/context/session - 创建一个新的上下文切换会话
  • POST /api/v1/context/process - 处理具有上下文切换的查询
  • POST /api/v1/context/process-stream - 处理具有上下文切换和流式响应的查询
  • POST /api/v1/context/switch - 手动将上下文切换到不同的角色
  • GET /api/v1/context/sessions/{session_id} - 获取有关会话的信息
  • GET /api/v1/context/sessions/{session_id}/history - 获取会话的上下文切换历史记录
  • DELETE /api/v1/context/sessions/{session_id} - 关闭会话

网页浏览器

  • POST /api/v1/browser/sessions - 创建一个新的浏览器会话
  • DELETE /api/v1/browser/sessions/{session_id} - 关闭浏览器会话
  • POST /api/v1/browser/sessions/{session_id}/navigate - 导航到 URL
  • GET /api/v1/browser/sessions/{session_id}/content - 获取当前页面内容
  • POST /api/v1/browser/sessions/{session_id}/screenshot - 拍摄页面截图
  • POST /api/v1/browser/sessions/{session_id}/click - 点击页面上的元素
  • POST /api/v1/browser/sessions/{session_id}/fill - 填写输入字段
  • POST /api/v1/browser/sessions/{session_id}/evaluate - 在浏览器中执行 JavaScript
  • GET /api/v1/browser/sessions/{session_id}/history - 获取浏览历史记录

核心概念

角色

角色是 MCP 服务器的基础。每个角色代表一个专业的 AI 助手,具有特定的专业知识、个性特征和行为准则。

角色属性

  • id: 角色的唯一标识符
  • name: 角色的显示名称
  • description: 角色用途的简要描述
  • instructions: 角色应如何表现的具体准则
  • domains: 专业知识领域(例如,财务、市场营销、技术支持)
  • tone: 通信风格(专业、随意、友好、技术、正式)
  • system_prompt: AI 模型的高级配置
  • is_default: 这是否是默认角色

创建有效的角色

创建角色时,请考虑以下最佳实践:

  1. 具体: 清楚地定义角色的专业知识和局限性
  2. 设置明确的准则: 提供有关角色应如何响应的详细说明
  3. 定义语气: 选择与角色用途相匹配的语气
  4. 制作系统提示: 使用系统提示来微调行为

记忆

记忆为 AI 角色提供上下文,使它们能够在对话中维护信息。

记忆属性

  • id: 记忆的唯一标识符
  • role_id: 此记忆所属的角色
  • content: 实际的记忆内容
  • type: 记忆类型(例如,对话、事实、偏好)
  • importance: 重要性级别(影响检索优先级)
  • embedding: 用于语义搜索的向量表示
  • created_at: 创建记忆的时间戳

网页浏览

该平台包括集成的网页浏览功能,允许 AI 顾问访问和与网页内容交互。此功能使顾问能够执行研究、收集信息,并根据来自网络的最新信息提供更具上下文相关性的响应。

网页浏览功能

  • 浏览器会话管理: 创建和管理用于网页研究的浏览器会话
  • 网页导航: 浏览网站并跟踪链接以收集信息
  • 内容提取: 使用多种提取模式提取和分析网页内容:
    • 自动: 智能地提取主要内容
    • 文章: 专注于新闻和博客网站的文章内容
    • 完整: 检索完整的页面内容
    • 结构化: 提取结构化数据(标题、链接、图像、表单等)
  • 屏幕截图捕获: 拍摄网页的屏幕截图以供参考
  • 交互式元素: 点击按钮、填写表单并与网页内容交互
  • JavaScript 执行: 运行自定义脚本以进行高级网页交互
  • 表单填写: 使用指定的值自动填写表单
  • 模拟会话: 浏览器初始化失败时的回退机制
  • 会话历史记录: 跟踪和检索每个会话的浏览历史记录
  • 交互式工具提示: 有用的工具提示,解释如何使用浏览器功能
  • 命令参考: 用于浏览器交互的特殊命令的清晰文档

使用网页浏览

您可以使用两种方式进行网页浏览:

  1. 通过网页浏览器界面: 通过点击“网页研究”部分中的“显示浏览器”按钮,从角色详细信息页面访问浏览器界面。

    • 使用 URL 栏导航到网站
    • 在浏览器面板中查看页面内容
    • 拍摄屏幕截图以供参考
    • 通过界面与网页元素交互
  2. 在查询中使用特殊命令: 在您的查询中包含特殊命令到 AI 顾问:

    • [SEARCH_WEB:query] - 在网络上搜索信息(使用 DuckDuckGo)
    • [BROWSE_URL:https://example.com] - 浏览具有可选提取模式的特定 URL
    • [BROWSE_URL:https://example.com:auto|article|full|structured] - 使用特定提取模式浏览
    • [CLICK_ELEMENT:#submit-button] - 点击当前页面上的元素
    • [EXTRACT_ELEMENT:.product-info] - 从特定元素中提取文本
    • [FILL_FORM:#email=user@example.com,#password=secret] - 填写表单

示例查询:

  • "最新的小型企业税收减免是什么 [SEARCH_WEB:2025 年小型企业税收减免]?"
  • "分析这篇文章 [BROWSE_URL:https://example.com/article:article]"
  • "提取产品信息 [BROWSE_URL:https://store.com/product:structured]"
  • "登录我的帐户 [FILL_FORM:#email=user@example.com,#password=secret] 然后 [CLICK_ELEMENT:#login-button]"

浏览器界面包括有用的工具提示,解释这些命令以及如何有效地使用它们。将鼠标悬停在功能名称旁边的信息图标 (ℹ️) 上以查看详细说明。

API 端点

以下 API 端点可用于网页浏览:

  • POST /api/browser/sessions - 创建一个新的浏览器会话
  • DELETE /api/browser/sessions/{session_id} - 关闭浏览器会话
  • POST /api/browser/sessions/{session_id}/navigate - 导航到 URL
  • GET /api/browser/sessions/{session_id}/content - 获取当前页面内容
  • POST /api/browser/sessions/{session_id}/screenshot - 拍摄屏幕截图
  • POST /api/browser/sessions/{session_id}/click - 点击页面上的元素
  • POST /api/browser/sessions/{session_id}/fill - 填写输入字段
  • POST /api/browser/sessions/{session_id}/evaluate - 执行 JavaScript
  • GET /api/browser/sessions/{session_id}/history - 获取浏览历史记录

实现细节

网页浏览功能使用以下方式实现:

  • Pyppeteer: 用于浏览器自动化的 Puppeteer 的 Python 端口
  • Headless Chrome: 用于浏览器渲染和交互
  • FastAPI: 用于 RESTful API 端点
  • React 组件: 用于前端浏览器界面

浏览器与 AI 的集成

浏览器服务通过 BrowserIntegration 类与 AI 处理器集成,该类:

  1. 将角色 ID 映射到浏览器会话
  2. 处理用户查询中的特殊命令
  3. 使用多种提取模式从网页中提取相关信息
  4. 支持结构化数据提取以实现更好的信息组织
  5. 通过元素选择和表单填写实现交互式网页操作
  6. 将网页内容以适当的格式合并到 AI 响应中

这种集成允许 AI 顾问将网页信息无缝地合并到他们的响应中,从而根据网络上可用的当前信息提供更准确和最新的建议。

示例用例

  • 市场调研: 研究行业趋势和竞争对手分析
  • 财务指导: 查找当前的税收法规或财务策略
  • 技术支持: 查找文档或故障排除指南
  • 法律建议: 研究相关的法律和法规
  • 营销策略: 分析当前的营销趋势和最佳实践
POST /api/v1/browser/sessions - 创建一个新的浏览器会话
DELETE /api/v1/browser/sessions/{session_id} - 关闭浏览器会话
POST /api/v1/browser/sessions/{session_id}/navigate - 导航到 URL
POST /api/v1/browser/sessions/{session_id}/screenshot - 拍摄屏幕截图
POST /api/v1/browser/sessions/{session_id}/click - 点击元素
POST /api/v1/browser/sessions/{session_id}/fill - 填写输入字段
POST /api/v1/browser/sessions/{session_id}/evaluate - 执行 JavaScript
GET /api/v1/browser/sessions/{session_id}/history - 获取浏览历史记录

有关更多详细信息,请参阅 网页浏览文档

上下文切换

上下文切换功能允许 AI 根据用户查询的内容动态适应不同的角色,从而提供更自然和无缝的对话体验。

它是如何工作的

  1. 触发检测: 系统分析用户查询中的特定模式,这些模式表明特定领域或专业知识将更合适。
  2. 角色匹配: 基于检测到的触发器,系统确定处理查询的最佳角色。
  3. 上下文转换: 切换角色时,系统提供有关转换的上下文以保持对话的连贯性。
  4. 会话管理: 系统维护跨角色转换的会话历史记录,以获得持续的体验。

主要组件

  • TriggerService: 检测用户查询中的触发器并确定最合适的角色
  • ContextSwitchingService: 管理会话并处理在角色之间切换的过程
  • 特定于领域的触发模式: 针对常见领域(如财务、技术、医疗保健等)的预配置模式

API 端点

以下 API 端点可用于上下文切换:

  • POST /api/context/sessions - 使用初始角色创建新会话
  • GET /api/context/sessions/{session_id} - 获取会话信息
  • DELETE /api/context/sessions/{session_id} - 关闭会话
  • POST /api/context/process - 处理具有上下文切换的查询
  • POST /api/context/process/stream - 处理具有上下文切换和流式响应的查询
  • POST /api/context/switch - 手动将上下文切换到不同的角色
  • GET /api/context/sessions/{session_id}/history - 获取上下文切换历史记录

示例用例

想象一个从技术问题开始但随后转移到财务考虑的对话:

  1. 用户询问有关软件实施的问题(由技术支持角色处理)
  2. 用户然后询问有关成本影响的问题(系统检测到财务触发器)
  3. 系统自动切换到财务顾问角色
  4. AI 以财务专业知识响应,同时保持对话上下文
  5. 用户在多个领域获得无缝的专业知识,而无需手动切换角色

优点

  • 自然对话: 用户可以自由更改主题,而无需显式切换角色
  • 专业知识: 每个查询都由最合适的角色处理
  • 上下文连续性: 对话历史记录在角色转换中得到维护
  • 改进的用户体验: 减少了多领域对话中的摩擦

有关更多详细信息,请参阅 上下文切换文档

查询处理

查询处理结合了角色、记忆和用户输入,以生成与上下文相关的响应。

处理流程

  1. 用户发送特定角色的查询
  2. 服务器检索角色配置
  3. 服务器获取相关的记忆以获取上下文
  4. 服务器构建一个包含角色说明、语气和记忆的提示
  5. 服务器将提示发送到 OpenAI 的 API
  6. 服务器将 AI 生成的响应返回给客户端

客户端界面

角色管理

客户端提供了一个用户友好的界面来管理 AI 角色:

角色列表

“角色”页面显示所有可用的角色,并提供以下选项:

  • 查看角色详细信息
  • 编辑现有角色
  • 删除角色
  • 创建新角色

角色创建

角色创建表单允许您定义新 AI 角色的所有方面:

  1. 基本信息:

    • 名称:角色的描述性名称
    • 描述:角色用途的简要摘要
  2. 专业知识配置:

    • 领域:角色的专业知识领域
    • 语气:通信风格
  3. 行为准则:

    • 说明:角色应如何表现的具体准则
    • 系统提示:AI 模型的高级配置

聊天界面

“聊天”页面提供了一个交互式界面,用于与 AI 角色进行对话:

  1. 角色选择: 从可用的角色中选择
  2. 对话: 发送消息并接收 AI 响应
  3. 上下文感知: AI 在整个对话过程中保持上下文

示例

创建财务顾问角色

{
  "id": "financial-advisor",
  "name": "财务顾问",
  "description": "个人理财和投资策略方面的专家",
  "instructions": "您是一位在退休计划方面具有专业知识的财务顾问。始终提供平衡的建议,同时考虑短期和长期财务目标。尽可能用简单的术语解释概念,避免使用财务术语。",
  "domains": ["财务", "投资", "退休", "税务规划"],
  "tone": "专业",
  "system_prompt": "您是 FinanceGPT,一个专门从事个人理财和投资策略的 AI 助手。您拥有退休帐户、税务优化、债务管理和投资工具方面的广泛知识。在提供建议时,始终考虑风险承受能力、时间范围和税务影响。在适当的时候,使用清晰的部分和项目符号来格式化您的响应。"
}

创建技术支持角色

{
  "id": "tech-support",
  "name": "技术支持专家",
  "description": "软件和硬件问题故障排除方面的专家",
  "instructions": "您是一位技术支持专家。在提出解决方案之前,始终首先了解用户的问题。如果需要,请提出澄清问题。提供易于遵循的分步说明。",
  "domains": ["软件", "硬件", "网络", "故障排除"],
  "tone": "友好",
  "system_prompt": "您是 TechGPT,一个专门从事技术支持和故障排除的 AI 助手。您拥有常见软件问题、硬件问题和网络配置方面的广泛知识。在帮助用户时,首先通过了解症状来诊断问题,然后提供清晰的分步解决方案。使用编号列表进行说明,并用简单的术语解释技术概念。"
}

示例对话

CFO 顾问对话

用户: 我们的小型企业正在快速增长,但我们的现金流正在成为一个问题。我们应该如何管理这个问题?

AI: 这是成长型企业面临的常见挑战。让我提供一些关于管理您的现金流的战略指导:

短期行动:

  • 实施现金流预测 - 创建一个 13 周的滚动预测,以预测现金缺口
  • 优化应收账款 - 考虑提供提前付款折扣并简化您的发票流程
  • 审查付款条件 - 与供应商协商更长的付款期限,同时缩短客户的付款期限

中期策略:

  • 评估库存管理 - 识别滞销库存并优化订单数量
  • 考虑融资方案 - 探索信贷额度、发票保理或设备融资
  • 实施 KPI 跟踪 - 监控现金转换周期、未偿还销售天数和库存周转率

长期规划:

  • 制定资本结构策略 - 平衡债务和股权以支持增长,同时管理风险
  • 考虑战略定价审查 - 确保您的定价策略支持健康的利润率

您希望我详细说明这些策略中的任何一个,还是讨论针对您的情况的特定融资方案?

CMO 顾问对话

用户: 我们需要增加我们的市场份额,但营销预算有限。您会推荐什么方法?

AI: 我理解在预算限制下最大化市场影响的挑战。这是一个战略方法:

市场分析与定位:

  1. 客户细分

    • 确定您最赚钱的客户群
    • 将资源集中在具有较低获取成本的高潜力细分市场
    • 制定详细的角色来指导消息传递
  2. 竞争定位

    • 确定您可以建立主导地位的服务不足的利基市场
    • 在所有沟通中强调您独特的价值主张
    • 考虑采用蓝海战略来创造无可争议的市场空间
  3. 数字营销优化

    • 基于 CAC 和 ROAS 指标实施数据驱动的渠道选择
    • 利用营销自动化来提高效率
    • 制定以转化为重点的内容策略,而不仅仅是意识
  4. 战略合作伙伴关系

    • 确定用于联合营销机会的互补业务
    • 考虑渠道合作伙伴关系,以在不增加支出的情况下扩展覆盖范围

您希望我为这些领域中的任何一个制定更详细的计划,还是讨论为小型企业提供最佳 ROI 的特定数字营销策略?

CEO 顾问对话

用户: 我们正在考虑扩展到一个新市场。您会推荐什么战略方法来评估这个机会?

AI: 扩展到新市场是一个重要的决定,需要仔细的战略分析。这是我推荐的结构化方法:

市场机会评估:

  1. 市场规模与增长分析

    • 评估总潜在市场 (TAM) 和可服务可获得市场 (SOM)
    • 分析历史增长率和未来预测
    • 识别市场趋势和潜在的颠覆者
  2. 竞争格局

    • 绘制现有竞争对手及其市场份额
    • 评估进入壁垒和潜在的竞争优势
    • 识别潜在的战略合作伙伴或收购目标

内部能力评估:

  1. 资源需求

    • 估计进入市场所需的资本投资
    • 评估所需的人才和运营能力
    • 评估技术和基础设施需求
  2. 风险评估

    • 识别监管和合规性考虑因素
    • 评估对现有业务运营的潜在影响
    • 制定各种情况的应急计划

您希望我帮助您制定特定的市场进入策略,还是讨论如何在多个市场机会之间确定优先级?

高级配置

自定义系统提示

系统提示是微调 AI 行为的强大工具

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python