颠覆传统!AI驱动的「深度研究」工具:2分钟生成专业报告,隐私无忧,技术前沿!


 

闪电般生成深度研究报告

Deep Research 利用多种强大的AI模型,仅需几分钟即可生成深度研究报告。它结合先进的“思考”与“联网”模型,并通过互联网连接,快速提供多领域的高质量分析。隐私至上——所有数据均在本地处理与存储。

✨ 功能亮点

  • • 极速深度研究:约2分钟生成全面研究报告,大幅提升研究效率。
  • • 多平台支持:支持快速部署至Vercel、Cloudflare等平台。
  • • AI驱动:采用先进AI模型,确保分析精准且深入。
  • • 多模型支持:兼容主流大语言模型,包括Gemini、OpenAI、Anthropic、Deepseek、Grok、OpenRouter、Ollama等。
  • • 联网搜索:支持Searxng、Tavily、Firecrawl等搜索引擎,为不支持联网的LLM提供便捷的搜索功能。
  • • 思考与联网模型:通过智能切换研究模型,平衡深度与速度,快速输出高质量结果。
  • • 内容编辑:支持研究报告编辑,提供WYSIWYM和Markdown两种模式,可调整阅读等级、文章长度及全文翻译。
  • • 研究历史:保存研究记录,随时回溯并深入再研究。
  • • 本地与服务器API:灵活支持本地或服务器端API调用。
  • • 隐私优先:所有数据存储于本地浏览器,安全无忧。
  • • 多密钥负载:支持多密钥轮询,提升API响应效率。
  • • 多语言支持:英语、简体中文。
  • • 现代技术栈:基于Next.js 15与Shadcn UI开发,体验流畅、界面美观。
  • • MIT许可:开源免费,个人与商业用途皆可。

🎯 发展路线

  • • 支持研究历史保存
  • • 支持最终报告与搜索结果的编辑
  • • 支持其他LLM模型
  • • 支持文件上传与本地知识库

🚀 快速开始

免费使用Gemini(推荐)

  1. 1. 获取Gemini API密钥
  2. 2. 一键部署项目,可选Vercel或Cloudflare


    Deploy with Vercel

    当前项目支持部署至Cloudflare,但需按《Cloudflare Pages部署指南》操作。

  3. 3. 开始使用

使用其他LLM

  1. 1. 将项目部署至Vercel或Cloudflare
  2. 2. 设置LLM API密钥
  3. 3. 设置LLM API基础地址(可选)
  4. 4. 开始使用

⌨️ 开发指南

环境准备

  • • Node.js(推荐18.18.0或更高版本)
  • • pnpm 或 npm 或 yarn

安装步骤

  1. 1. 克隆仓库

    git clone https://github.com/u14app/deep-research.git  
    cd deep-research  
  2. 2. 安装依赖

    pnpm install  # 或 npm install 或 yarn install  
  3. 3. 配置环境变量 修改env.tpl文件为.env,或直接创建.env文件并填写变量。
  4. 4. 启动开发服务器

    pnpm dev  # 或 npm run dev 或 yarn dev  

    访问 http://localhost:3000 即可使用。

自定义模型列表

项目支持自定义模型列表,但仅限代理模式。请在.env文件中添加环境变量NEXT_PUBLIC_MODEL_LIST

多个模型用逗号分隔。禁用某模型时,使用-现有模型名;仅允许指定模型时,使用-all,+新模型名

🚢 部署方案

Vercel


Deploy with Vercel

Cloudflare

《Cloudflare Pages部署指南》操作。

Docker

Docker版本需20及以上,否则可能提示找不到镜像。

⚠️ 注意:Docker版本通常比最新版滞后1-2天,部署后可能持续显示“存在更新”,属正常现象。

docker pull xiangfa/deep-research:latest  
docker run -d --name deep-research -p 3333:3000 xiangfa/deep-research  

指定环境变量示例:

docker run -d --name deep-research \  
   -p 3333:3000 \  
   -e ACCESS_PASSWORD=your-password \  
   -e GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... \  
   xiangfa/deep-research  

或自行构建镜像:

docker build -t deep-research .  
docker run -d --name deep-research -p 3333:3000 deep-research  

使用docker-compose.yml部署:

version: '3.9'  
services:  
   deep-research:  
      image: xiangfa/deep-research  
      container_name: deep-research  
      environment:  
         - ACCESS_PASSWORD=your-password  
         - GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy...  
      ports:  
         - 3333:3000  

或自行构建Compose:

docker compose -f docker-compose.yml build  

静态部署

构建静态页面后,将out目录上传至支持静态页面的服务(如Github Page、Cloudflare等):

pnpm build:export  

⚙️ 配置说明

环境变量配置请参考env.tpl文件。

重要提示

  • • 隐私保护:环境变量主要用于服务端API调用。使用本地API模式时无需配置,隐私性更强。
  • • 多密钥支持:支持多个密钥,用逗号分隔,如key1,key2,key3
  • • 安全设置:通过ACCESS_PASSWORD增强API安全性。
  • • 生效条件:修改环境变量后需重新部署。

🙋 常见问题

Ollama或SearXNG报错TypeError: Failed to fetch

因浏览器跨域限制,需配置Ollama或SearXNG允许跨域请求,或使用服务端代理模式(通过后端请求规避跨域问题)。

🛡️ 隐私声明

Deep Research以隐私为核心设计。所有研究数据与报告均存储于本地(除非显式使用服务端API调用,此时数据会通过代理发送至Gemini API)。


 

项目地址

https://github.com/u14app/deep-research



扫码加入技术交流群,备注「开发语言-城市-昵称

(文:GitHubStore)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往