From 9fa3a18a4baf2293b0f56ac80b58d7e6a5653406 Mon Sep 17 00:00:00 2001 From: lintsinghua <1930438860@qq.com> Date: Sun, 26 Oct 2025 16:01:16 +0800 Subject: [PATCH] =?UTF-8?q?=E6=9B=B4=E6=96=B0=E9=85=8D=E7=BD=AE=E6=96=87?= =?UTF-8?q?=E4=BB=B6=E6=A8=A1=E7=89=88.?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- .env.example | 71 +++++++++++++++++++++++++-------- example.txt | 109 --------------------------------------------------- 2 files changed, 55 insertions(+), 125 deletions(-) delete mode 100644 example.txt diff --git a/.env.example b/.env.example index 15b497f..19cc27a 100644 --- a/.env.example +++ b/.env.example @@ -10,15 +10,17 @@ VITE_LLM_PROVIDER=gemini # 通用LLM配置 (可选,如果设置了这些,会覆盖下面的特定平台配置) # VITE_LLM_API_KEY=your_api_key_here # VITE_LLM_MODEL=your_model_name -# VITE_LLM_BASE_URL=https://custom-api-endpoint.com +# VITE_LLM_BASE_URL=https://your-proxy.com/v1 # API中转站地址(支持所有平台) # VITE_LLM_TIMEOUT=150000 # VITE_LLM_TEMPERATURE=0.2 # VITE_LLM_MAX_TOKENS=4096 +# VITE_LLM_CUSTOM_HEADERS={"X-Custom-Header":"value"} # 自定义请求头(JSON格式) # ==================== Google Gemini 配置 ==================== # 获取API Key: https://makersuite.google.com/app/apikey +# 注意:Gemini 现在也支持 API 中转站,只需在上方 VITE_LLM_BASE_URL 中填写中转站地址 # VITE_GEMINI_API_KEY=your_gemini_api_key_here -# VITE_GEMINI_MODEL=gemini-2.5-flash +# VITE_GEMINI_MODEL=gemini-1.5-flash # VITE_GEMINI_TIMEOUT_MS=150000 # ==================== OpenAI 配置 ==================== @@ -89,16 +91,12 @@ VITE_LLM_PROVIDER=gemini # # 更多模型: https://ollama.com/library -# ==================== 数据库配置 ==================== -# 数据库模式选择: -# 1. 本地数据库模式(推荐):设置 VITE_USE_LOCAL_DB=true,数据存储在浏览器 IndexedDB 中 -# 2. Supabase 云端模式:配置 Supabase URL 和 Key,数据存储在云端 -# 3. 演示模式:不配置任何数据库,使用演示数据(数据不持久化) +# ==================== 数据库配置 (推荐使用本地数据库) ==================== +# 方式1:本地数据库(推荐,开箱即用) +VITE_USE_LOCAL_DB=true -# 使用本地数据库(IndexedDB) -# VITE_USE_LOCAL_DB=true - -# Supabase 云端数据库配置 (可选) +# 方式2:Supabase 云端数据库(支持多设备同步) +# 如果不配置,系统将以演示模式运行,数据不会持久化 # 获取配置: https://supabase.com/ # VITE_SUPABASE_URL=https://your-project.supabase.co # VITE_SUPABASE_ANON_KEY=your-anon-key-here @@ -115,9 +113,50 @@ VITE_APP_ID=xcodereviewer VITE_MAX_ANALYZE_FILES=40 VITE_LLM_CONCURRENCY=2 VITE_LLM_GAP_MS=500 +VITE_OUTPUT_LANGUAGE=zh-CN # zh-CN: 中文 | en-US: 英文 -# ==================== 输出语言配置 ==================== -# 设置 LLM 分析结果的输出语言 -# zh-CN: 简体中文(默认) -# en-US: 英文 -VITE_OUTPUT_LANGUAGE=zh-CN +# ======================================== +# API 中转站使用示例(推荐) +# ======================================== +# 大部分用户使用 API 中转站访问 LLM,以下是常见配置示例: + +# 示例 1:使用硅基流动中转站(OpenAI 兼容格式) +# VITE_LLM_PROVIDER=openai +# VITE_LLM_API_KEY=sk-你的硅基流动Key +# VITE_LLM_MODEL=deepseek-ai/DeepSeek-V3 +# VITE_LLM_BASE_URL=https://api.siliconflow.cn/v1 + +# 示例 2:使用 OpenRouter(支持所有模型) +# VITE_LLM_PROVIDER=openai +# VITE_LLM_API_KEY=sk-or-你的OpenRouterKey +# VITE_LLM_MODEL=anthropic/claude-3.5-sonnet +# VITE_LLM_BASE_URL=https://openrouter.ai/api/v1 + +# 示例 3:使用 Gemini 中转站(Gemini 格式) +# VITE_LLM_PROVIDER=gemini +# VITE_LLM_API_KEY=你的中转站Key +# VITE_LLM_MODEL=gemini-1.5-flash +# VITE_LLM_BASE_URL=https://你的gemini中转站.com/v1beta + +# 示例 4:自建服务 + 自定义请求头 +# VITE_LLM_PROVIDER=openai +# VITE_LLM_API_KEY=your-custom-key +# VITE_LLM_MODEL=custom-model +# VITE_LLM_BASE_URL=https://your-server.com/v1 +# VITE_LLM_CUSTOM_HEADERS={"X-API-Version":"v1","X-Team-ID":"team123"} + +# ======================================== +# 重要提示 +# ======================================== +# 1. 推荐使用"运行时配置":无需修改此文件,直接在浏览器中配置 +# 访问 http://localhost:8888/admin → 系统配置标签页 +# +# 2. API 中转站 URL 格式: +# - OpenAI 兼容格式通常以 /v1 结尾 +# - Gemini 格式通常以 /v1beta 结尾 +# - Claude 格式通常以 /v1 结尾 +# +# 3. API 格式支持: +# - OpenAI 兼容格式(最常见,90%+ 中转站) +# - Gemini 格式(Google Gemini 官方及兼容服务) +# - Claude 格式(Anthropic Claude 官方及兼容服务) diff --git a/example.txt b/example.txt deleted file mode 100644 index e3f410c..0000000 --- a/example.txt +++ /dev/null @@ -1,109 +0,0 @@ -# ======================================== -# XCodeReviewer 环境变量配置示例 -# ======================================== -# 复制此文件为 .env 并填写你的配置 - -# ==================== LLM 通用配置 ==================== -# 选择你想使用的LLM提供商 (gemini|openai|claude|qwen|deepseek|zhipu|moonshot|baidu|minimax|doubao|ollama) -VITE_LLM_PROVIDER=gemini - -# 通用LLM配置 (可选,如果设置了这些,会覆盖下面的特定平台配置) -# VITE_LLM_API_KEY=your_api_key_here -# VITE_LLM_MODEL=your_model_name -# VITE_LLM_BASE_URL=https://custom-api-endpoint.com -# VITE_LLM_TIMEOUT=150000 -# VITE_LLM_TEMPERATURE=0.2 -# VITE_LLM_MAX_TOKENS=4096 - -# ==================== Google Gemini 配置 ==================== -# 获取API Key: https://makersuite.google.com/app/apikey -# VITE_GEMINI_API_KEY=your_gemini_api_key_here -# VITE_GEMINI_MODEL=gemini-2.5-flash -# VITE_GEMINI_TIMEOUT_MS=150000 - -# ==================== OpenAI 配置 ==================== -# 获取API Key: https://platform.openai.com/api-keys -# VITE_OPENAI_API_KEY=your_openai_api_key_here -# VITE_OPENAI_MODEL=gpt-4o-mini -# VITE_OPENAI_BASE_URL=https://api.openai.com/v1 - -# ==================== Anthropic Claude 配置 ==================== -# 获取API Key: https://console.anthropic.com/ -# VITE_CLAUDE_API_KEY=your_claude_api_key_here -# VITE_CLAUDE_MODEL=claude-3-5-sonnet-20241022 - -# ==================== 阿里云通义千问 配置 ==================== -# 获取API Key: https://dashscope.console.aliyun.com/ -# VITE_QWEN_API_KEY=your_qwen_api_key_here -# VITE_QWEN_MODEL=qwen-turbo - -# ==================== DeepSeek 配置 ==================== -# 获取API Key: https://platform.deepseek.com/ -# VITE_DEEPSEEK_API_KEY=your_deepseek_api_key_here -# VITE_DEEPSEEK_MODEL=deepseek-chat - -# ==================== 智谱AI (GLM) 配置 ==================== -# 获取API Key: https://open.bigmodel.cn/ -# VITE_ZHIPU_API_KEY=your_zhipu_api_key_here -# VITE_ZHIPU_MODEL=glm-4-flash - -# ==================== 月之暗面 Kimi 配置 ==================== -# 获取API Key: https://platform.moonshot.cn/ -# VITE_MOONSHOT_API_KEY=your_moonshot_api_key_here -# VITE_MOONSHOT_MODEL=moonshot-v1-8k - -# ==================== 百度文心一言 配置 ==================== -# 获取API Key: https://console.bce.baidu.com/qianfan/ -# 注意:百度API Key格式为 "API_KEY:SECRET_KEY" -# VITE_BAIDU_API_KEY=your_api_key:your_secret_key -# VITE_BAIDU_MODEL=ERNIE-3.5-8K - -# ==================== MiniMax 配置 ==================== -# 获取API Key: https://www.minimaxi.com/ -# VITE_MINIMAX_API_KEY=your_minimax_api_key_here -# VITE_MINIMAX_MODEL=abab6.5-chat - -# ==================== 字节豆包 配置 ==================== -# 获取API Key: https://console.volcengine.com/ark -# 注意:豆包使用endpoint ID,需要先创建推理接入点 -# VITE_DOUBAO_API_KEY=your_doubao_api_key_here -# VITE_DOUBAO_MODEL=doubao-pro-32k - -# ==================== Ollama 本地大模型配置 ==================== -# Ollama 允许在本地运行开源大模型,无需 API Key -# 安装: https://ollama.com/ -# 快速开始: -# 1. 安装 Ollama: curl -fsSL https://ollama.com/install.sh | sh -# 2. 下载模型: ollama pull llama3 -# 3. 配置如下并启动应用 -# VITE_OLLAMA_API_KEY=ollama # 本地运行不需要真实Key,填写任意值 -# VITE_OLLAMA_MODEL=llama3 -# VITE_OLLAMA_BASE_URL=http://localhost:11434/v1 -# -# 推荐模型: -# - llama3 (综合能力强,适合各种任务) -# - codellama (代码专用,适合代码审查) -# - qwen2.5:7b (中文支持好) -# - deepseek-coder (代码理解能力强) -# - phi3:mini (轻量级,速度快) -# -# 更多模型: https://ollama.com/library - -# ==================== Supabase 数据库配置 (可选) ==================== -# 如果不配置,系统将以演示模式运行,数据不会持久化 -# 获取配置: https://supabase.com/ -# VITE_SUPABASE_URL=https://your-project.supabase.co -# VITE_SUPABASE_ANON_KEY=your-anon-key-here - -# ==================== GitHub 集成配置 (可选) ==================== -# 用于仓库分析功能 -# 获取Token: https://github.com/settings/tokens -# VITE_GITHUB_TOKEN=your_github_token_here - -# ==================== 应用配置 ==================== -VITE_APP_ID=xcodereviewer - -# ==================== 代码分析配置 ==================== -VITE_MAX_ANALYZE_FILES=40 -VITE_LLM_CONCURRENCY=2 -VITE_LLM_GAP_MS=500