1.1 KiB
1.1 KiB
LLM Proxy 使用说明
本项目已包含本地反向代理服务 llm-proxy。
1) 环境配置
先复制配置模板:
cp .env.example .env
必填环境变量:
LLM_BASE_URL(示例:http://8.211.173.24:9404/v1)LLM_API_KEYLLM_MODEL(默认:qwen3.5-plus)LLM_TIMEOUT_MS(默认:60000)LLM_FORCE_CHINESE(默认:true,会在缺少 system 消息时自动注入中文回复约束)
2) 启动服务
docker compose up -d llm-proxy nginx
3) 前端/后端调用地址
统一调用同域路径(浏览器不暴露 API Key):
curl -X POST https://reserve.xn--15t503c5up.com/api/llm/chat \
-H "Content-Type: application/json" \
-d '{
"messages": [{"role":"user","content":"你好,做个自我介绍"}],
"stream": false
}'
代理会转发到 ${LLM_BASE_URL}/chat/completions,并在服务端注入:
Authorization: Bearer ${LLM_API_KEY}
4) 中文前端页面
新增页面:
/chat.html
页面内所有 UI 文案均为中文,默认中文对话,支持流式返回开关。