CodeReview/docs/FAQ.md

430 lines
9.4 KiB
Markdown
Raw Permalink Normal View History

# 常见问题 (FAQ)
本文档收集了 DeepAudit 使用过程中的常见问题和解决方案。
## 目录
- [快速入门](#快速入门)
- [LLM 配置](#llm-配置)
- [网络问题](#网络问题)
- [功能使用](#功能使用)
- [部署问题](#部署问题)
- [性能优化](#性能优化)
---
## 快速入门
### Q: 如何快速开始使用?
最快的方式是使用 Docker Compose
```bash
# 1. 克隆项目
git clone https://github.com/lintsinghua/DeepAudit.git
cd DeepAudit
# 2. 配置 LLM API Key
cp backend/env.example backend/.env
# 编辑 backend/.env填入你的 API Key
# 3. 启动服务
docker-compose up -d
# 4. 访问 http://localhost:5173
```
### Q: 演示账户是什么?
系统启动时会自动创建演示账户,包含示例项目和审计数据:
- 📧 邮箱:`demo@example.com`
- 🔑 密码:`demo123`
演示账户拥有管理员权限,可体验所有功能。生产环境请删除或修改密码。
### Q: 不想用 Docker如何本地运行
参见 [部署指南 - 本地开发部署](DEPLOYMENT.md#本地开发部署)。
### Q: 支持哪些编程语言?
DeepAudit 支持所有主流编程语言的代码分析,包括但不限于:
- **Web**: JavaScript, TypeScript, HTML, CSS
- **后端**: Python, Java, Go, Rust, C/C++, C#
- **移动端**: Swift, Kotlin, Dart
- **脚本**: Shell, PowerShell, Ruby, PHP
- **其他**: SQL, YAML, JSON, Markdown
---
## LLM 配置
### Q: 如何快速切换 LLM 平台?
**方式一:浏览器运行时配置(推荐)**
1. 访问 `http://localhost:5173/admin` 系统管理页面
2. 在"系统配置"标签页选择不同的 LLM 提供商
3. 填入对应的 API Key
4. 保存即可,无需重启
**方式二:修改后端环境变量**
编辑 `backend/.env`
```env
# 切换到 OpenAI
LLM_PROVIDER=openai
LLM_API_KEY=sk-your-key
# 切换到通义千问
LLM_PROVIDER=qwen
LLM_API_KEY=sk-your-dashscope-key
# 切换到 DeepSeek
LLM_PROVIDER=deepseek
LLM_API_KEY=sk-your-key
```
修改后需要重启后端服务。
### Q: 百度文心一言的 API Key 格式是什么?
百度需要同时提供 API Key 和 Secret Key用冒号分隔
```env
LLM_PROVIDER=baidu
LLM_API_KEY=your_api_key:your_secret_key
LLM_MODEL=ernie-bot-4
```
获取地址https://console.bce.baidu.com/qianfan/
### Q: 如何使用 Ollama 本地大模型?
```bash
# 1. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh # macOS/Linux
# Windows: 访问 https://ollama.com/download
# 2. 拉取模型
ollama pull llama3 # 或 codellama、qwen2.5、deepseek-coder
# 3. 确保 Ollama 服务运行
ollama serve
# 4. 配置后端
# 在 backend/.env 中设置:
LLM_PROVIDER=ollama
LLM_MODEL=llama3
LLM_BASE_URL=http://localhost:11434/v1
```
**推荐模型**
- `llama3` - 综合能力强
- `codellama` - 代码专用
- `qwen2.5` - 中文支持好
- `deepseek-coder` - 代码分析强
### Q: 哪个 LLM 平台性价比最高?
| 场景 | 推荐 | 原因 |
|------|------|------|
| 免费使用 | Gemini / 智谱 GLM-4-Flash | 有免费配额 |
| 低成本 | DeepSeek | 价格仅为 GPT-4 的 1/10 |
| 最佳性能 | GPT-4o / Claude Sonnet | 代码理解能力最强 |
| 敏感代码 | Ollama 本地模型 | 完全本地化 |
---
## 网络问题
### Q: 遇到请求超时怎么办?
**方案一:增加超时时间**
```env
LLM_TIMEOUT=300 # 增加到 300 秒
```
**方案二:使用 API 中转站**
```env
LLM_PROVIDER=openai
LLM_API_KEY=中转站提供的Key
LLM_BASE_URL=https://your-proxy.com/v1
```
**方案三:切换到国内平台**
通义千问、DeepSeek、智谱 AI 等国内平台访问更稳定。
**方案四:降低并发**
```env
LLM_CONCURRENCY=1 # 降低并发数
LLM_GAP_MS=3000 # 增加请求间隔
```
### Q: 如何配置 API 中转站?
```env
LLM_PROVIDER=openai
LLM_API_KEY=中转站提供的Key
LLM_BASE_URL=https://your-proxy.com/v1
LLM_MODEL=gpt-4o-mini
```
常见中转站:
- [OpenRouter](https://openrouter.ai/)
- [API2D](https://api2d.com/)
- [CloseAI](https://www.closeai-asia.com/)
### Q: 提示 "API Key 无效" 怎么办?
1. 检查 API Key 是否正确复制(注意前后空格)
2. 确认 API Key 未过期或被禁用
3. 检查 LLM_PROVIDER 是否与 API Key 匹配
4. 如果使用中转站,确认 LLM_BASE_URL 配置正确
---
## 功能使用
### Q: 如何分析 GitHub/GitLab 仓库?
1. 在"项目管理"页面点击"添加项目"
2. 选择"GitHub 仓库"或"GitLab 仓库"
3. 输入仓库 URL`https://github.com/user/repo`
4. 如果是私有仓库,需要配置 Token
- GitHub: 在 `backend/.env` 中设置 `GITHUB_TOKEN`
- GitLab: 在 `backend/.env` 中设置 `GITLAB_TOKEN`
### Q: 如何上传 ZIP 文件分析?
1. 在"项目管理"页面点击"添加项目"
2. 选择"上传 ZIP"
3. 选择本地 ZIP 文件上传
4. 系统会自动解压并分析
### Q: 如何使用即时分析功能?
1. 访问"即时分析"页面
2. 直接粘贴代码片段
3. 选择编程语言
4. 点击"分析"按钮
### Q: 如何导出审计报告?
1. 完成代码分析后,进入"审计报告"页面
2. 点击"导出"按钮
3. 选择导出格式:
- **JSON**: 结构化数据,适合程序处理
- **PDF**: 专业报告,适合交付
### Q: 分析结果不准确怎么办?
1. **切换更强的模型**:如 GPT-4o、Claude Sonnet
2. **调整温度参数**:降低 `LLM_TEMPERATURE` 到 0.1 以下
3. **增加上下文**:确保代码文件完整
4. **人工复核**AI 分析结果仅供参考,建议结合人工审查
---
## 部署问题
### Q: Docker 容器启动失败?
**端口被占用**
```bash
# 检查端口占用
lsof -i :5173
lsof -i :8000
lsof -i :5432
# 停止占用进程或修改 docker-compose.yml 中的端口
```
**数据库连接失败**
```bash
# 确保数据库先启动
docker-compose up -d db
docker-compose exec db pg_isready -U postgres
docker-compose up -d backend
```
### Q: Windows 导出 PDF 报错怎么办?
PDF 导出功能使用 WeasyPrint 库,在 Windows 系统上需要安装 GTK 依赖。
**方法一:使用 MSYS2 安装(推荐)**
```bash
# 1. 下载并安装 MSYS2: https://www.msys2.org/
# 2. 打开 MSYS2 终端,执行:
pacman -S mingw-w64-x86_64-pango mingw-w64-x86_64-gtk3
# 3. 将 MSYS2 的 bin 目录添加到系统 PATH
# C:\msys64\mingw64\bin
```
**方法二:使用 GTK3 Runtime**
1. 下载 GTK3 Runtime: https://github.com/nickvidal/gtk3-runtime/releases
2. 安装后将安装目录添加到系统 PATH
**方法三:使用 Docker 部署(最简单)**
```bash
docker-compose up -d backend
```
Docker 镜像已包含所有依赖,无需额外配置。
### Q: macOS 上 PDF 导出报错?
```bash
# 安装依赖
brew install pango cairo gdk-pixbuf libffi
# 重启后端服务
```
### Q: 前端无法连接后端 API
检查 `frontend/.env` 中的 API 地址配置:
```env
# 本地开发
VITE_API_BASE_URL=http://localhost:8000/api/v1
# Docker Compose 部署
VITE_API_BASE_URL=/api
```
### Q: 数据库迁移失败?
```bash
cd backend
source .venv/bin/activate
# 查看当前迁移状态
alembic current
# 重新执行迁移
alembic upgrade head
# 如果有问题,可以回滚
alembic downgrade -1
```
---
## 性能优化
### Q: 分析速度太慢怎么办?
**1. 增加并发数**
```env
LLM_CONCURRENCY=5 # 增加并发(注意 API 限流)
LLM_GAP_MS=500 # 减少请求间隔
```
**2. 限制分析文件数**(默认无限制)
```env
MAX_ANALYZE_FILES=30 # 设置单次分析文件数限制
```
**3. 使用更快的模型**
- `gpt-4o-mini``gpt-4o`
- `qwen-turbo``qwen-max`
- `glm-4-flash``glm-4`
**4. 使用本地模型**
Ollama 本地模型没有网络延迟,适合大量文件分析。
### Q: 如何减少 API 调用费用?
1. **使用便宜的模型**DeepSeek、通义千问 Turbo
2. **减少分析文件数**:设置 `MAX_ANALYZE_FILES`
3. **过滤不必要的文件**:排除测试文件、配置文件等
4. **使用本地模型**Ollama 完全免费
### Q: 内存占用过高?
1. **减少并发数**`LLM_CONCURRENCY=1`
2. **限制文件大小**`MAX_FILE_SIZE_BYTES=102400`100KB
3. **使用更小的本地模型**:如 `deepseek-coder:1.3b`
---
## 数据管理
### Q: 如何备份数据?
`/admin` 页面的"数据库管理"标签页中,点击"导出数据"按钮,可以将所有数据导出为 JSON 文件。
也可以直接备份 PostgreSQL 数据库:
```bash
# 导出数据
docker-compose exec db pg_dump -U postgres deepaudit > backup.sql
# 恢复数据
docker-compose exec -T db psql -U postgres deepaudit < backup.sql
```
### Q: 如何恢复数据?
`/admin` 页面的"数据库管理"标签页中,点击"导入数据"按钮,选择之前导出的 JSON 文件即可恢复。
### Q: 如何清空所有数据?
`/admin` 页面的"数据库管理"标签页中,点击"清空数据"按钮。
⚠️ **警告**:此操作不可恢复,请先备份重要数据!
---
## 其他问题
### Q: 如何更新到最新版本?
```bash
# 拉取最新代码
git pull origin main
# 重新构建镜像
docker-compose build --no-cache
# 重启服务
docker-compose up -d
```
### Q: 如何参与贡献?
参见 [贡献指南](../CONTRIBUTING.md)。
---
## 还有问题?
如果以上内容没有解决你的问题,欢迎:
- 提交 [GitHub Issue](https://github.com/lintsinghua/DeepAudit/issues)
- 发送邮件至 lintsinghua@qq.com
提问时请提供:
1. 操作系统和版本
2. 部署方式Docker/本地)
3. 错误日志或截图
4. 复现步骤