Deepchat

Deepchat

ThinkInAIXYZ

通信
访问服务器

README

<p align="center"> <img src='./build/icon.png' width="150" height="150" alt="logo" /> </p>

<h1 align="center">DeepChat</h1>

<p align="center">海豚是鲸鱼的好朋友,DeepChat 是你的好助手</p>

<div align="center"> <a href="./README.zh.md">中文</a> / English </div>

推理

<p align='center'> <img src='./build/screen.jpg'/> </p>

搜索

<p align='center'> <img src='./build/screen.search.jpg'/> </p>

Latex

<p align='center'> <img src='./build/screen.latex.jpg'/> </p>

Artifacts 支持

<p align='center'> <img src='./build/screen.artifacts.jpg'/> </p>

主要特性

  • 🌐 支持多种模型云服务:DeepSeek, OpenAI, Silicon Flow 等。
  • 🏠 支持本地模型部署:Ollama
  • 🚀 多通道聊天并发支持,切换到其他对话无需等待模型生成完成,效率 Max
  • 💻 支持多平台:Windows, macOS, Linux
  • 📄 完整的 Markdown 渲染,优秀的 code module 渲染
  • 🌟 易于使用,带有完整的引导页面,无需理解复杂的概念即可立即上手

当前支持的模型提供商

<table> <tr align="center"> <td> <img src="./src/renderer/src/assets/llm-icons/ollama.svg" width="50" height="50"><br/> <a href="https://ollama.com">Ollama</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/deepseek-color.svg" width="50" height="50"><br/> <a href="https://deepseek.com/">Deepseek</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/siliconcloud.svg" width="50" height="50"><br/> <a href="https://www.siliconflow.cn/">Silicon</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/qwen-color.svg" width="50" height="50"><br/> <a href="https://chat.qwenlm.ai">QwenLM</a> </td> </tr> <tr align="center"> <td> <img src="./src/renderer/src/assets/llm-icons/doubao-color.svg" width="50" height="50"><br/> <a href="https://console.volcengine.com/ark/">Doubao</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/minimax-color.svg" width="50" height="50"><br/> <a href="https://platform.minimaxi.com/">MiniMax</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/fireworks-color.svg" width="50" height="50"><br/> <a href="https://fireworks.ai/">Fireworks</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/ppio-color.svg" width="50" height="50"><br/> <a href="https://ppinfra.com/">PPIO</a> </td> </tr> <tr align="center"> <td> <img src="./src/renderer/src/assets/llm-icons/openai.svg" width="50" height="50"><br/> <a href="https://openai.com/">OpenAI</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/gemini-color.svg" width="50" height="50"><br/> <a href="https://gemini.google.com/">Gemini</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/github.svg" width="50" height="50"><br/> <a href="https://github.com/marketplace/models">GitHub Models</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/moonshot.svg" width="50" height="50"><br/> <a href="https://moonshot.ai/">Moonshot</a> </td> </tr> <tr align="center"> <td> <img src="./src/renderer/src/assets/llm-icons/openrouter.svg" width="50" height="50"><br/> <a href="https://openrouter.ai/">OpenRouter</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/azure-color.svg" width="50" height="50"><br/> <a href="https://azure.microsoft.com/en-us/products/ai-services/openai-service">Azure OpenAI</a> </td> <td> <img src="./src/renderer/src/assets/llm-icons/qiniu.svg" width="50" height="50"><br/> <a href="https://www.qiniu.com/products/ai-token-api">Qiniu</a> </td> <td colspan="1"> 兼容任何 OpenAI/Gemini API 格式的模型提供商 </td> </tr> </table>

其他特性

  • 支持使用 Ollama 进行本地模型管理
  • 支持本地文件处理
  • Artifacts 支持
  • 可定制的搜索引擎(通过模型解析,无需 API 适配)
  • MCP 支持(内置 npx,无需额外安装 node 环境)
  • 支持多模态模型
  • 本地聊天数据备份和恢复
  • 兼容任何 OpenAI、Gemini 和 Anthropic API 格式的模型提供商

开发

请阅读 贡献指南 Windows 和 Linux 由 GitHub Action 打包。 对于 Mac 相关的签名和打包,请参考 Mac 发布指南

安装依赖

$ npm install
$ npm run installRuntime
# if got err: No module named 'distutils'
$ pip install setuptools
# for windows x64
$ npm install --cpu=x64 --os=win32 sharp
# for mac apple silicon
$ npm install --cpu=arm64 --os=darwin sharp
# for mac intel
$ npm install --cpu=x64 --os=darwin sharp
# for linux x64
$ npm install --cpu=x64 --os=linux sharp

启动开发

$ npm run dev

构建

# For windows
$ npm run build:win

# For macOS
$ npm run build:mac

# For Linux
$ npm run build:linux

# Specify architecture packaging
$ npm run build:win:x64
$ npm run build:win:arm64
$ npm run build:mac:x64
$ npm run build:mac:arm64
$ npm run build:linux:x64
$ npm run build:linux:arm64

Star History

Star History Chart

贡献者

感谢您考虑为 deepchat 做出贡献!贡献指南可以在贡献指南中找到。

<a href="https://github.com/ThinkInAIXYZ/deepchat/graphs/contributors"> <img src="https://contrib.rocks/image?repo=ThinkInAIXYZ/deepchat" /> </a>

📃 许可证

LICENSE

推荐服务器

graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Apple MCP Server

Apple MCP Server

通过 MCP 协议与 Apple 应用(如“信息”、“备忘录”和“通讯录”)进行交互,从而使用自然语言发送消息、搜索和打开应用内容。

精选
本地
TypeScript
MCP Server Trello

MCP Server Trello

通过 Trello API 促进与 Trello 看板的交互,提供速率限制、类型安全、输入验证和错误处理等功能,以实现对卡片、列表和看板活动的无缝管理。

精选
TypeScript
@kazuph/mcp-gmail-gas

@kazuph/mcp-gmail-gas

用于 Gmail 集成的模型上下文协议 (Model Context Protocol, MCP) 服务器。它允许 Claude Desktop(或任何 MCP 客户端)通过 Google Apps Script 与您的 Gmail 帐户进行交互。

精选
JavaScript
Linear MCP Server

Linear MCP Server

一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

精选
JavaScript
Composio MCP Server

Composio MCP Server

一个服务器实现,提供与 MCP 兼容的 Composio 应用(如 Gmail 和 Linear)的访问,允许通过结构化的接口与语言模型进行交互。

官方
TypeScript
Folderr

Folderr

一个模型上下文协议 (MCP) 服务器,它提供与 Folderr API 交互的工具,专门用于管理 Folderr 助手并与之通信。

官方
JavaScript
mcp-google

mcp-google

一个专门的模型上下文协议(MCP)服务器,它将 Google 服务(Gmail、日历等)集成到您的 AI 工作流程中。该服务器通过 MCP 实现对 Google 服务的无缝访问,从而允许 AI 代理与 Gmail、Google 日历和其他 Google 服务进行交互。

本地
TypeScript
MCP-JIRA-Python Server

MCP-JIRA-Python Server

一个基于 Python 的服务器,允许与 JIRA 无缝集成,通过自定义 API 管理和交互项目。

本地
Python
Email sending MCP 💌

Email sending MCP 💌

使用此电子邮件发送 MCP 服务器,直接从 Cursor 发送电子邮件

本地
TypeScript