CodeReview/docs/FAQ.md

2.2 KiB
Raw Blame History

常见问题

如何快速切换 LLM 平台?

方式一:浏览器配置(推荐)

  1. 访问 http://localhost:5173/admin 系统管理页面
  2. 在"系统配置"标签页选择不同的 LLM 提供商
  3. 填入对应的 API Key
  4. 保存并刷新页面

方式二:后端环境变量配置

修改 backend/.env 中的配置:

# 切换到 OpenAI
LLM_PROVIDER=openai
LLM_API_KEY=your_key

# 切换到通义千问
LLM_PROVIDER=qwen
LLM_API_KEY=your_key

遇到请求超时怎么办?

  1. 增加超时时间:LLM_TIMEOUT=300
  2. 使用代理:配置 LLM_BASE_URL
  3. 切换到国内平台通义千问、DeepSeek、智谱AI 等
  4. 降低并发:LLM_CONCURRENCY=1

如何使用 Ollama 本地大模型?

# 1. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh  # macOS/Linux
# Windows: 访问 https://ollama.com/download

# 2. 拉取模型
ollama pull llama3  # 或 codellama、qwen2.5、deepseek-coder

# 3. 配置后端
# 在 backend/.env 中设置:
LLM_PROVIDER=ollama
LLM_MODEL=llama3
LLM_BASE_URL=http://localhost:11434/v1

推荐模型:llama3(综合)、codellama(代码专用)、qwen2.5(中文)

百度文心一言的 API Key 格式?

百度需要同时提供 API Key 和 Secret Key用冒号分隔

LLM_PROVIDER=baidu
LLM_API_KEY=your_api_key:your_secret_key

获取地址:https://console.bce.baidu.com/qianfan/

Windows 导出 PDF 报错怎么办?

PDF 导出功能使用 WeasyPrint 库,在 Windows 系统上需要安装 GTK 依赖:

方法一:使用 MSYS2 安装(推荐)

# 1. 下载并安装 MSYS2: https://www.msys2.org/
# 2. 打开 MSYS2 终端,执行:
pacman -S mingw-w64-x86_64-pango mingw-w64-x86_64-gtk3

# 3. 将 MSYS2 的 bin 目录添加到系统 PATH 环境变量:
# C:\msys64\mingw64\bin

方法二:使用 GTK3 Runtime 安装包

  1. 下载 GTK3 Runtime: https://github.com/nickvidal/gtk3-runtime/releases
  2. 安装后将安装目录添加到系统 PATH

方法三:使用 Docker 部署(最简单)

使用 Docker 部署后端可以避免 Windows 上的依赖问题:

docker-compose up -d backend

安装完成后重启后端服务即可正常导出 PDF。