chore: initial import

这个提交包含在:
Codex
2026-03-06 08:55:47 +08:00
当前提交 acb8a43c5c
修改 16 个文件,包含 2820 行新增0 行删除

50
LLM_PROXY.md 普通文件
查看文件

@@ -0,0 +1,50 @@
# LLM Proxy 使用说明
本项目已包含本地反向代理服务 `llm-proxy`
## 1) 环境配置
先复制配置模板:
```bash
cp .env.example .env
```
必填环境变量:
- `LLM_BASE_URL`(示例:`http://8.211.173.24:9404/v1`
- `LLM_API_KEY`
- `LLM_MODEL`(默认:`qwen3.5-plus`
- `LLM_TIMEOUT_MS`(默认:`60000`
- `LLM_FORCE_CHINESE`(默认:`true`,会在缺少 system 消息时自动注入中文回复约束)
## 2) 启动服务
```bash
docker compose up -d llm-proxy nginx
```
## 3) 前端/后端调用地址
统一调用同域路径(浏览器不暴露 API Key
```bash
curl -X POST https://reserve.xn--15t503c5up.com/api/llm/chat \
-H "Content-Type: application/json" \
-d '{
"messages": [{"role":"user","content":"你好,做个自我介绍"}],
"stream": false
}'
```
代理会转发到 `${LLM_BASE_URL}/chat/completions`,并在服务端注入:
- `Authorization: Bearer ${LLM_API_KEY}`
## 4) 中文前端页面
新增页面:
- `/chat.html`
页面内所有 UI 文案均为中文,默认中文对话,支持流式返回开关。