# LLM Proxy 使用说明 本项目已包含本地反向代理服务 `llm-proxy`。 ## 1) 环境配置 先复制配置模板: ```bash cp .env.example .env ``` 必填环境变量: - `LLM_BASE_URL`(示例:`http://8.211.173.24:9404/v1`) - `LLM_API_KEY` - `LLM_MODEL`(默认:`qwen3.5-plus`) - `LLM_TIMEOUT_MS`(默认:`60000`) - `LLM_FORCE_CHINESE`(默认:`true`,会在缺少 system 消息时自动注入中文回复约束) ## 2) 启动服务 ```bash docker compose up -d llm-proxy nginx ``` ## 3) 前端/后端调用地址 统一调用同域路径(浏览器不暴露 API Key): ```bash curl -X POST https://reserve.xn--15t503c5up.com/api/llm/chat \ -H "Content-Type: application/json" \ -d '{ "messages": [{"role":"user","content":"你好,做个自我介绍"}], "stream": false }' ``` 代理会转发到 `${LLM_BASE_URL}/chat/completions`,并在服务端注入: - `Authorization: Bearer ${LLM_API_KEY}` ## 4) 中文前端页面 新增页面: - `/chat.html` 页面内所有 UI 文案均为中文,默认中文对话,支持流式返回开关。