https://github.com/tencent-rtc/conversational-ai-cloudbase
LLM Services For Conversational AI CloudBase
https://github.com/tencent-rtc/conversational-ai-cloudbase
Last synced: about 2 months ago
JSON representation
LLM Services For Conversational AI CloudBase
- Host: GitHub
- URL: https://github.com/tencent-rtc/conversational-ai-cloudbase
- Owner: Tencent-RTC
- Created: 2025-03-11T06:34:43.000Z (about 1 year ago)
- Default Branch: main
- Last Pushed: 2025-03-19T10:36:13.000Z (about 1 year ago)
- Last Synced: 2025-07-08T02:14:09.323Z (10 months ago)
- Language: JavaScript
- Size: 2.16 MB
- Stars: 2
- Watchers: 4
- Forks: 1
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
Awesome Lists containing this project
README
# LLM Services For Conversational AI CloudBase
实现了几个专门用于处理 LLM (Large Language Model) 请求的云函数2.0服务,帮助快速接入TRTC-AI对话,每个服务都有其特定的功能和用途。
## 服务概述
### 1. LLM Context Manager
基础的 LLM 对话服务 (`cloudrunfunctions/llm-context-manager/index.mjs`),提供以下核心功能:
- 基本的对话上下文管理
- 支持流式响应(SSE)
- 对话历史记录的存储和清理
- 可配置的上下文消息数量限制
- 支持自定义系统提示词
### 2. LLM Fast Reply
快速响应服务 (`cloudrunfunctions/llm-fast-reply/index.mjs`),在标准 LLM 服务基础上增加了渐进式响应功能:
- 支持小模型快速预响应
- 使用较小的模型生成初步回复
- 同时启动大模型生成完整回复
- 可配置是否启用渐进式响应
- 支持自定义小模型参数(温度、最大 token 等)
### 3. LLM Tools
集成了工具调用功能的 LLM 服务 (`cloudrunfunctions/llm-tools/index.mjs`):
- 支持天气查询功能
- 工具调用的自动处理和响应
- 支持多轮对话中的工具使用
- 工具调用结果的上下文整合
### 4. LLM RAG
实现了检索增强生成(RAG)功能的服务 (`cloudrunfunctions/llm-rag/index.mjs`):
- 文档嵌入和存储
- 相似度检索
- 上下文增强
- 支持文档引用和溯源
- 可配置的相似度阈值和最大文档数
## 共同特性
所有服务都具备以下基础功能:
- 支持流式输出(SSE)
- 对话上下文管理
- 可配置的模型参数
- 错误处理和日志记录
- 支持自定义 API 端点和密钥
- 支持任务 ID 的会话隔离
## 配置项
主要配置参数包括:
- `LLM_BASE_URL`: API 基础 URL
- `LLM_API_KEY`: API 访问密钥
- `LLM_MODEL`: 默认使用的模型
- `MAX_CONTEXT_MESSAGES`: 上下文最大消息数
- `CONTEXT_EXPIRY_HOURS`: 上下文过期时间
## 使用说明
每个服务都通过 HTTP 请求调用,支持以下参数:
- `messages`: 对话消息数组
- `model`: 可选的模型指定
- `taskId`: 会话标识符
- 特定服务的额外参数(如 RAG 的相似度阈值等)
响应通过 Server-Sent Events (SSE) 流式返回,客户端需要相应处理流式数据。
注意:运行服务前请确保已正确配置环境变量,特别是 `LLM_API_KEY` 和 `LLM_BASE_URL`。