feat: async task pipeline for media and llm workflows

这个提交包含在:
cryptocommuniums-afk
2026-03-15 00:12:26 +08:00
父节点 1cc863e60e
当前提交 20e183d2da
修改 36 个文件,包含 1961 行新增339 行删除

查看文件

@@ -20,6 +20,7 @@
- Node/tRPC 路由输入校验与权限检查
- LLM 模块请求配置与环境变量回退逻辑
- 视觉模型 per-request model override 能力
- 媒体工具函数,例如录制时长格式化与码率选择
### 3. Go 媒体服务测试
@@ -43,6 +44,7 @@
- 注入假媒体设备、假 `MediaRecorder` 和假 `RTCPeerConnection`
这样可以自动验证前端主流程,而不依赖数据库、真实摄像头权限和真实 WebRTC 网络环境。
当前 E2E 已覆盖新的后台任务流和任务中心依赖的接口 mock。
## Unified verification
@@ -75,6 +77,14 @@ pnpm test:llm -- "你好,做个自我介绍"
- 适合验证 `LLM_API_KEY``LLM_MODEL` 和网关连通性
- 不建议纳入 `pnpm verify`,因为它依赖外部网络和真实密钥
多模态链路建议额外执行一次手工 smoke test
```bash
pnpm exec tsx -e 'import "dotenv/config"; import { invokeLLM } from "./server/_core/llm"; const result = await invokeLLM({ model: process.env.LLM_VISION_MODEL, apiUrl: process.env.LLM_VISION_API_URL, apiKey: process.env.LLM_VISION_API_KEY, messages: [{ role: "user", content: [{ type: "text", text: "请用中文一句话描述图片" }, { type: "image_url", image_url: { url: "https://..." } }] }] }); console.log(result.model, result.choices[0]?.message?.content);'
```
如果返回模型与 `LLM_VISION_MODEL` 不一致,说明上游网关忽略了视觉模型选择,业务任务会自动回退到文本纠正结果。
## Production smoke checks
部署到宿主机后,建议至少补以下联测: