颠覆传统!AI驱动的「深度研究」工具:2分钟生成专业报告,隐私无忧,技术前沿!
闪电般生成深度研究报告
Deep Research 利用多种强大的AI模型,仅需几分钟即可生成深度研究报告。它结合先进的“思考”与“联网”模型,并通过互联网连接,快速提供多领域的高质量分析。隐私至上——所有数据均在本地处理与存储。
✨ 功能亮点
- • 极速深度研究:约2分钟生成全面研究报告,大幅提升研究效率。
- • 多平台支持:支持快速部署至Vercel、Cloudflare等平台。
- • AI驱动:采用先进AI模型,确保分析精准且深入。
- • 多模型支持:兼容主流大语言模型,包括Gemini、OpenAI、Anthropic、Deepseek、Grok、OpenRouter、Ollama等。
- • 联网搜索:支持Searxng、Tavily、Firecrawl等搜索引擎,为不支持联网的LLM提供便捷的搜索功能。
- • 思考与联网模型:通过智能切换研究模型,平衡深度与速度,快速输出高质量结果。
- • 内容编辑:支持研究报告编辑,提供WYSIWYM和Markdown两种模式,可调整阅读等级、文章长度及全文翻译。
- • 研究历史:保存研究记录,随时回溯并深入再研究。
- • 本地与服务器API:灵活支持本地或服务器端API调用。
- • 隐私优先:所有数据存储于本地浏览器,安全无忧。
- • 多密钥负载:支持多密钥轮询,提升API响应效率。
- • 多语言支持:英语、简体中文。
- • 现代技术栈:基于Next.js 15与Shadcn UI开发,体验流畅、界面美观。
- • MIT许可:开源免费,个人与商业用途皆可。
🎯 发展路线
- • 支持研究历史保存
- • 支持最终报告与搜索结果的编辑
- • 支持其他LLM模型
- • 支持文件上传与本地知识库
🚀 快速开始
免费使用Gemini(推荐)
- 1. 获取Gemini API密钥
2. 一键部署项目,可选Vercel或Cloudflare
Deploy with Vercel
当前项目支持部署至Cloudflare,但需按《Cloudflare Pages部署指南》操作。
- 3. 开始使用
使用其他LLM
- 1. 将项目部署至Vercel或Cloudflare
- 2. 设置LLM API密钥
- 3. 设置LLM API基础地址(可选)
- 4. 开始使用
⌨️ 开发指南
环境准备
- • Node.js(推荐18.18.0或更高版本)
- • pnpm 或 npm 或 yarn
安装步骤
- 1. 克隆仓库
git clone https://github.com/u14app/deep-research.git cd deep-research - 2. 安装依赖
pnpm install # 或 npm install 或 yarn install - 3. 配置环境变量 修改
env.tpl文件为.env,或直接创建.env文件并填写变量。
4. 启动开发服务器
pnpm dev # 或 npm run dev 或 yarn dev
访问 http://localhost:3000 即可使用。
自定义模型列表
项目支持自定义模型列表,但仅限代理模式。请在.env文件中添加环境变量NEXT_PUBLIC_MODEL_LIST。
多个模型用逗号分隔。禁用某模型时,使用-现有模型名;仅允许指定模型时,使用-all,+新模型名。
🚢 部署方案
Vercel
Deploy with Vercel
Cloudflare
按《Cloudflare Pages部署指南》操作。
Docker
Docker版本需20及以上,否则可能提示找不到镜像。
⚠️ 注意:Docker版本通常比最新版滞后1-2天,部署后可能持续显示“存在更新”,属正常现象。
docker pull xiangfa/deep-research:latest docker run -d --name deep-research -p 3333:3000 xiangfa/deep-research
指定环境变量示例:
docker run -d --name deep-research \ -p 3333:3000 \ -e ACCESS_PASSWORD=your-password \ -e GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... \ xiangfa/deep-research
或自行构建镜像:
docker build -t deep-research . docker run -d --name deep-research -p 3333:3000 deep-research
使用docker-compose.yml部署:
version: '3.9' services: deep-research: image: xiangfa/deep-research container_name: deep-research environment: - ACCESS_PASSWORD=your-password - GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... ports: - 3333:3000
或自行构建Compose:
docker compose -f docker-compose.yml build
静态部署
构建静态页面后,将out目录上传至支持静态页面的服务(如Github Page、Cloudflare等):
pnpm build:export
⚙️ 配置说明
环境变量配置请参考env.tpl文件。
重要提示:
- • 隐私保护:环境变量主要用于服务端API调用。使用本地API模式时无需配置,隐私性更强。
- • 多密钥支持:支持多个密钥,用逗号分隔,如
key1,key2,key3。 - • 安全设置:通过
ACCESS_PASSWORD增强API安全性。 - • 生效条件:修改环境变量后需重新部署。
🙋 常见问题
Ollama或SearXNG报错TypeError: Failed to fetch?
因浏览器跨域限制,需配置Ollama或SearXNG允许跨域请求,或使用服务端代理模式(通过后端请求规避跨域问题)。
🛡️ 隐私声明
Deep Research以隐私为核心设计。所有研究数据与报告均存储于本地(除非显式使用服务端API调用,此时数据会通过代理发送至Gemini API)。
项目地址
https://github.com/u14app/deep-research
扫码加入技术交流群,备注「开发语言-城市-昵称」
(文:GitHubStore)