Ecosyste.ms: Awesome
An open API service indexing awesome lists of open source software.
https://github.com/kenyony/openai-forward
🚀 大语言模型高效转发服务 · An efficient forwarding service designed for LLMs. · OpenAI API Reverse Proxy
https://github.com/kenyony/openai-forward
llm openai openai-api openai-proxy proxy python rate-limit
Last synced: 28 days ago
JSON representation
🚀 大语言模型高效转发服务 · An efficient forwarding service designed for LLMs. · OpenAI API Reverse Proxy
- Host: GitHub
- URL: https://github.com/kenyony/openai-forward
- Owner: KenyonY
- License: mit
- Created: 2023-03-28T07:26:06.000Z (over 1 year ago)
- Default Branch: main
- Last Pushed: 2024-10-07T16:46:09.000Z (about 1 month ago)
- Last Synced: 2024-10-11T18:42:11.376Z (28 days ago)
- Topics: llm, openai, openai-api, openai-proxy, proxy, python, rate-limit
- Language: Python
- Homepage: https://api.openai-forward.com
- Size: 1.9 MB
- Stars: 823
- Watchers: 5
- Forks: 283
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
- Contributing: CONTRIBUTING.md
- License: LICENSE
- Code of conduct: CODE_OF_CONDUCT.md
Awesome Lists containing this project
- awesome-ChatGPT-repositories - openai-forward - 🚀 大语言模型高效转发服务 · An efficient forwarding service designed for LLMs. · OpenAI API Reverse Proxy (NLP)
README
**简体中文** | [**English**](https://github.com/KenyonY/openai-forward/blob/main/README_EN.md)
OpenAI Forward
[特点](#主要特性) |
[部署指南](deploy.md) |
[使用指南](#使用指南) |
[配置](#配置) |
[对话日志](#对话日志)> [!IMPORTANT]
>
> 在v0.7.0以后在配置方面会有较大调整,并与之前版本不兼容。通过UI配置起来会更加方便,且提供了更强大的配置选项。**OpenAI-Forward** 是为大型语言模型实现的高效转发服务。其核心功能包括
用户请求速率控制、Token速率限制、智能预测缓存、日志管理和API密钥管理等,旨在提供高效、便捷的模型转发服务。
无论是代理本地语言模型还是云端语言模型,如 [LocalAI](https://github.com/go-skynet/LocalAI)
或 [OpenAI](https://api.openai.com),都可以由 OpenAI Forward 轻松实现。
得益于 [uvicorn](https://github.com/encode/uvicorn), [aiohttp](https://github.com/aio-libs/aiohttp),
和 [asyncio](https://docs.python.org/3/library/asyncio.html)
等库支持,OpenAI-Forward 实现了出色的异步性能。### News
- 🎉🎉🎉 v0.7.0版本后支持通过WebUI进行配置管理
- gpt-1106版本已适配
- 缓存后端切换为高性能数据库后端:[🗲 FlaxKV](https://github.com/KenyonY/flaxkv)## 主要特性
- **全能转发**:可转发几乎所有类型的请求
- **性能优先**:出色的异步性能
- **缓存AI预测**:对AI预测进行缓存,加速服务访问并节省费用
- **用户流量控制**:自定义请求速率与Token速率
- **实时响应日志**:提升LLMs可观察性
- **自定义秘钥**:替代原始API密钥
- **多目标路由**:转发多个服务地址至同一服务下的不同路由
- **黑白名单**:可对指定IP进行黑白名单限制
- **自动重试**:确保服务的稳定性,请求失败时将自动重试
- **快速部署**:支持通过pip和docker在本地或云端进行快速部署**由本项目搭建的代理服务地址:**
- 原始OpenAI 服务地址
> https://api.openai-forward.com
> https://render.openai-forward.com- 开启缓存的服务地址(用户请求结果将被保存一段时间)
> https://smart.openai-forward.com
注:此处部署的代理服务仅供个人学习和研究目的使用,勿用于任何商业用途。## 部署指南
👉 [部署文档](deploy.md)
## 使用指南
### 快速入门
**安装**
```bash
pip install openai-forward# 或安装webui版本:
pip install openai-forward[webui]
```**启动服务**
```bash
aifd run
# 或启动带webui的服务
aifd run --webui
```如果读入了根路径的`.env`的配置, 将会看到以下启动信息
```bash
❯ aifd run
╭────── 🤗 openai-forward is ready to serve! ───────╮
│ │
│ base url https://api.openai.com │
│ route prefix / │
│ api keys False │
│ forward keys False │
│ cache_backend MEMORY │
╰────────────────────────────────────────────────────╯
╭──────────── ⏱️ Rate Limit configuration ───────────╮
│ │
│ backend memory │
│ strategy moving-window │
│ global rate limit 100/minute (req) │
│ /v1/chat/completions 100/2minutes (req) │
│ /v1/completions 60/minute;600/hour (req) │
│ /v1/chat/completions 60/second (token) │
│ /v1/completions 60/second (token) │
╰────────────────────────────────────────────────────╯
INFO: Started server process [191471]
INFO: Waiting for application startup.
INFO: Application startup complete.
INFO: Uvicorn running on http://0.0.0.0:8000 (Press CTRL+C to quit)
```### 代理OpenAI模型:
`aifd run`的默认选项便是代理`https://api.openai.com`
下面以搭建好的服务地址`https://api.openai-forward.com` 为例
**Python**
```diff
from openai import OpenAI # pip install openai>=1.0.0
client = OpenAI(
+ base_url="https://api.openai-forward.com/v1",
api_key="sk-******"
)
```### 代理本地模型
- **适用场景:** 与 [LocalAI](https://github.com/go-skynet/LocalAI),
[api-for-open-llm](https://github.com/xusenlinzy/api-for-open-llm)等项目一起使用- **如何操作:**
以LocalAI为例,如果已在 http://localhost:8080 部署了LocalAI服务,仅需在环境变量或 .env
文件中设置 `FORWARD_CONFIG=[{"base_url":"http://localhost:8080","route":"/localai","type":"openai"}]`。
然后即可通过访问 http://localhost:8000/localai 使用LocalAI。(更多)
### 代理任意云端模型
#### 代理[gemini pro](https://ai.google.dev/)
配置环境变量或 .env 文件如下:
```env
FORWARD_CONFIG=[{"base_url":"https://generativelanguage.googleapis.com","route":"/gemini","type":"general"}]
```
说明:`aidf run`启动后,即可通过访问 http://localhost:8000/gemini 使用gemini pro。- **场景1:**
使用通用转发,可对任意来源服务进行转发,
可获得请求速率控制与token速率控制;但通用转发不支持自定义秘钥.- **场景2:**
可通过 [LiteLLM](https://github.com/BerriAI/litellm) 可以将 众多云模型的 API 格式转换为 openai
的api格式,然后使用openai风格转发(更多)
## 配置
执行 `aifd run --webui` 进入配置页面 (默认服务地址 http://localhost:8001)
你可以在项目的运行目录下创建 .env 文件来定制各项配置。参考配置可见根目录下的
[.env.example](.env.example)文件### 智能缓存
开启缓存后,将会对指定路由的内容进行缓存,其中转发类型分别为`openai`与`general`两者行为略有不同,
使用`general`转发时,默认会将相同的请求一律使用缓存返回,
使用`openai`转发时,在开启缓存后,可以通过OpenAI 的`extra_body`参数来控制缓存的行为,如**Python**
```diff
from openai import OpenAI
client = OpenAI(
+ base_url="https://smart.openai-forward.com/v1",
api_key="sk-******"
)
completion = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[
{"role": "user", "content": "Hello!"}
],
+ extra_body={"caching": True}
)
```**Curl**
```bash
curl https://smart.openai.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-******" \
-d '{
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}],
"caching": true
}'```
### 自定义秘钥
Click for more details
见.env文件
**用例:**
```diff
import openai
+ openai.api_base = "https://api.openai-forward.com/v1"
- openai.api_key = "sk-******"
+ openai.api_key = "fk-******"
```### 多目标服务转发
支持转发不同地址的服务至同一端口的不同路由下
用例见 `.env.example`### 对话日志
Click for more details
保存路径在当前目录下的`Log/openai/chat/chat.log`路径中。
记录格式为```text
{'messages': [{'role': 'user', 'content': 'hi'}], 'model': 'gpt-3.5-turbo', 'stream': True, 'max_tokens': None, 'n': 1, 'temperature': 1, 'top_p': 1, 'logit_bias': None, 'frequency_penalty': 0, 'presence_penalty': 0, 'stop': None, 'user': None, 'ip': '127.0.0.1', 'uid': '2155fe1580e6aed626aa1ad74c1ce54e', 'datetime': '2023-10-17 15:27:12'}
{'assistant': 'Hello! How can I assist you today?', 'is_tool_calls': False, 'uid': '2155fe1580e6aed626aa1ad74c1ce54e'}
```转换为`json`格式:
```bash
aifd convert
```得到`chat_openai.json`:
```json
[
{
"datetime": "2023-10-17 15:27:12",
"ip": "127.0.0.1",
"model": "gpt-3.5-turbo",
"temperature": 1,
"messages": [
{
"user": "hi"
}
],
"tools": null,
"is_tool_calls": false,
"assistant": "Hello! How can I assist you today?"
}
]
```## 贡献
欢迎通过提交拉取请求或在仓库中提出问题来为此项目做出贡献。
## 许可证
OpenAI-Forward 采用 [MIT](https://opensource.org/license/mit/) 许可证。