Perplexity Insight MCP Server
通过与 Perplexity AI API 接口,利用标准化的模型上下文协议提供高级问答功能,并支持多种 Perplexity 模型。
README
Perplexity Insight MCP 服务器
一个用于与 Perplexity AI API 交互的 MCP 服务器实现,通过标准化的模型上下文协议提供高级问答功能。
特性
- 与 Perplexity AI API 无缝集成
- 支持不同的 Perplexity 模型 (sonar-reasoning, sonar-pro, sonar-deep-research)
- 可定制的系统提示和用户查询
- 正确的错误处理和响应格式
- 速率限制保护
- 易于与 Windsurf IDE 集成
要求
- Node.js 18+
- Perplexity API 密钥
安装
npm install
环境变量
创建一个包含以下变量的 .env 文件:
PERPLEXITY_API_KEY=your_api_key_here
用法
运行服务器:
npm start
API 工具
服务器公开以下工具:
perplexity_ask- 向 Perplexity AI 发送直接问题perplexity_search- 使用 Perplexity AI 执行搜索查询
更改模型
两种工具都支持以下 Perplexity 模型:
sonar-reasoning(默认) - Perplexity 以推理为中心的模型,最适合一般问题sonar-pro- 增强型模型,具有改进的专业用例能力sonar-deep-research- 专门用于深入研究和复杂查询
要在使用工具时指定模型,请在您的请求中包含 model 参数:
使用 sonar-deep-research 询问 Perplexity:量子计算的最新进展是什么?
您还可以自定义系统提示和最大令牌数:
使用 sonar-pro 通过系统提示“你是一个有用的研究助手”和最大令牌数 2000 来搜索 Perplexity:可再生能源的最新发展
工具响应格式
服务器遵循 MCP 规范的工具响应:
{
content: [
{
type: "text",
text: "来自 Perplexity AI 的响应内容"
}
],
isError: false // 如果发生错误则为 true
}
Windsurf 集成
在 Windsurf 中设置
-
构建服务器:
npm run build -
打开 Windsurf 并导航到设置
-
找到“AI 设置”或“模型上下文协议”部分
-
添加一个新的 MCP 服务器,包含以下详细信息:
- 名称: Perplexity Insight
- 类型: 本地进程
- 命令: Node.js 可执行文件的路径
- 参数: 已编译的
index.js文件的路径 - 工作目录: 项目目录的路径
- 环境变量: 确保包含
PERPLEXITY_API_KEY=your_api_key_here
-
启用服务器并在必要时重新启动 Windsurf
示例配置
以下是 mcp_config.json 文件的示例配置:
"perplexity-ask": {
"command": "node",
"args": [
"/path/to/perplexity-insight-MCP/dist/index.js"
],
"cwd": "/path/to/perplexity-insight-MCP",
"env": {
"PERPLEXITY_API_KEY": "pplx-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"
}
}
将 /path/to/perplexity-insight-MCP 替换为您的安装目录的实际路径,并使用您实际的 Perplexity API 密钥。
在 Windsurf 中使用 Perplexity
- 使用 AI 助手面板提出将定向到 Perplexity 的问题
- 对于网络搜索,请在您的查询中包含诸如“搜索”之类的特定术语
- 要更改模型,请在查询中包含模型名称,如“更改模型”部分所示
- Windsurf 将根据您的查询自动使用适当的 Perplexity 工具
开发
对于本地开发:
npm run dev
故障排除
如果您在使用 MCP 服务器时遇到问题:
- 检查您的 API 密钥是否有效并已在
.env文件中正确设置 - 验证响应格式是否与 MCP 规范匹配
- 在服务器日志中查找任何错误消息
- 确保 Windsurf 已正确配置为使用 MCP 服务器
许可证
MIT
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。