文件
apkReverseknowledge/LLM_PROXY.md
2026-03-06 08:55:47 +08:00

1.1 KiB
原始文件 Blame 文件历史

LLM Proxy 使用说明

本项目已包含本地反向代理服务 llm-proxy

1) 环境配置

先复制配置模板:

cp .env.example .env

必填环境变量:

  • LLM_BASE_URL(示例:http://8.211.173.24:9404/v1
  • LLM_API_KEY
  • LLM_MODEL(默认:qwen3.5-plus
  • LLM_TIMEOUT_MS(默认:60000
  • LLM_FORCE_CHINESE(默认:true,会在缺少 system 消息时自动注入中文回复约束)

2) 启动服务

docker compose up -d llm-proxy nginx

3) 前端/后端调用地址

统一调用同域路径(浏览器不暴露 API Key

curl -X POST https://reserve.xn--15t503c5up.com/api/llm/chat \
  -H "Content-Type: application/json" \
  -d '{
    "messages": [{"role":"user","content":"你好,做个自我介绍"}],
    "stream": false
  }'

代理会转发到 ${LLM_BASE_URL}/chat/completions,并在服务端注入:

  • Authorization: Bearer ${LLM_API_KEY}

4) 中文前端页面

新增页面:

  • /chat.html

页面内所有 UI 文案均为中文,默认中文对话,支持流式返回开关。