闪电般生成深度研究报告
Deep Research 利用多种强大的AI模型,仅需几分钟即可生成深度研究报告。它结合先进的“思考”与“联网”模型,并通过互联网连接,快速提供多领域的高质量分析。隐私至上——所有数据均在本地处理与存储。
✨ 功能亮点
-
• 极速深度研究:约2分钟生成全面研究报告,大幅提升研究效率。 -
• 多平台支持:支持快速部署至Vercel、Cloudflare等平台。 -
• AI驱动:采用先进AI模型,确保分析精准且深入。 -
• 多模型支持:兼容主流大语言模型,包括Gemini、OpenAI、Anthropic、Deepseek、Grok、OpenRouter、Ollama等。 -
• 联网搜索:支持Searxng、Tavily、Firecrawl等搜索引擎,为不支持联网的LLM提供便捷的搜索功能。 -
• 思考与联网模型:通过智能切换研究模型,平衡深度与速度,快速输出高质量结果。 -
• 内容编辑:支持研究报告编辑,提供WYSIWYM和Markdown两种模式,可调整阅读等级、文章长度及全文翻译。 -
• 研究历史:保存研究记录,随时回溯并深入再研究。 -
• 本地与服务器API:灵活支持本地或服务器端API调用。 -
• 隐私优先:所有数据存储于本地浏览器,安全无忧。 -
• 多密钥负载:支持多密钥轮询,提升API响应效率。 -
• 多语言支持:英语、简体中文。 -
• 现代技术栈:基于Next.js 15与Shadcn UI开发,体验流畅、界面美观。 -
• MIT许可:开源免费,个人与商业用途皆可。
🎯 发展路线
-
• 支持研究历史保存 -
• 支持最终报告与搜索结果的编辑 -
• 支持其他LLM模型 -
• 支持文件上传与本地知识库
🚀 快速开始
免费使用Gemini(推荐)
-
1. 获取Gemini API密钥 -
2. 一键部署项目,可选Vercel或Cloudflare 当前项目支持部署至Cloudflare,但需按《Cloudflare Pages部署指南》操作。Deploy with Vercel -
3. 开始使用
使用其他LLM
-
1. 将项目部署至Vercel或Cloudflare -
2. 设置LLM API密钥 -
3. 设置LLM API基础地址(可选) -
4. 开始使用
⌨️ 开发指南
环境准备
-
• Node.js(推荐18.18.0或更高版本) -
• pnpm 或 npm 或 yarn
安装步骤
-
1. 克隆仓库 git clone https://github.com/u14app/deep-research.git
cd deep-research -
2. 安装依赖 pnpm install # 或 npm install 或 yarn install
-
3. 配置环境变量 修改 env.tpl
文件为.env
,或直接创建.env
文件并填写变量。 -
4. 启动开发服务器 pnpm dev # 或 npm run dev 或 yarn dev
访问 http://localhost:3000 即可使用。
自定义模型列表
项目支持自定义模型列表,但仅限代理模式。请在.env
文件中添加环境变量NEXT_PUBLIC_MODEL_LIST
。
多个模型用逗号分隔。禁用某模型时,使用-现有模型名
;仅允许指定模型时,使用-all,+新模型名
。
🚢 部署方案
Vercel
Cloudflare
按《Cloudflare Pages部署指南》操作。
Docker
Docker版本需20及以上,否则可能提示找不到镜像。
⚠️ 注意:Docker版本通常比最新版滞后1-2天,部署后可能持续显示“存在更新”,属正常现象。
docker pull xiangfa/deep-research:latest
docker run -d --name deep-research -p 3333:3000 xiangfa/deep-research
指定环境变量示例:
docker run -d --name deep-research \
-p 3333:3000 \
-e ACCESS_PASSWORD=your-password \
-e GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... \
xiangfa/deep-research
或自行构建镜像:
docker build -t deep-research .
docker run -d --name deep-research -p 3333:3000 deep-research
使用docker-compose.yml
部署:
version: '3.9'
services:
deep-research:
image: xiangfa/deep-research
container_name: deep-research
environment:
- ACCESS_PASSWORD=your-password
- GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy...
ports:
- 3333:3000
或自行构建Compose:
docker compose -f docker-compose.yml build
静态部署
构建静态页面后,将out
目录上传至支持静态页面的服务(如Github Page、Cloudflare等):
pnpm build:export
⚙️ 配置说明
环境变量配置请参考env.tpl
文件。
重要提示:
-
• 隐私保护:环境变量主要用于服务端API调用。使用本地API模式时无需配置,隐私性更强。 -
• 多密钥支持:支持多个密钥,用逗号分隔,如 key1,key2,key3
。 -
• 安全设置:通过 ACCESS_PASSWORD
增强API安全性。 -
• 生效条件:修改环境变量后需重新部署。
🙋 常见问题
Ollama或SearXNG报错TypeError: Failed to fetch
?
因浏览器跨域限制,需配置Ollama或SearXNG允许跨域请求,或使用服务端代理模式(通过后端请求规避跨域问题)。
🛡️ 隐私声明
Deep Research以隐私为核心设计。所有研究数据与报告均存储于本地(除非显式使用服务端API调用,此时数据会通过代理发送至Gemini API)。
项目地址
https://github.com/u14app/deep-research
扫码加入技术交流群,备注「开发语言-城市-昵称」
(文:GitHubStore)