Ecosyste.ms: Awesome

An open API service indexing awesome lists of open source software.

Awesome Lists | Featured Topics | Projects

https://github.com/dqzboy/ChatGPT-Proxy

ChatGPT Proxy Project:一键部署 go-chatgpt-api 和 ninja 逆向工程
https://github.com/dqzboy/ChatGPT-Proxy

chatgpt chatgpt-proxy

Last synced: 9 days ago
JSON representation

ChatGPT Proxy Project:一键部署 go-chatgpt-api 和 ninja 逆向工程

Awesome Lists containing this project

README

        






[![Typing SVG](https://readme-typing-svg.herokuapp.com?font=Handlee&center=true&vCenter=true&width=500&height=60&lines=This+is+chat+gpt+proxy+service.)](https://git.io/typing-svg)


> 由于上游项目已经归档,本一键部署脚本将不在继续维护更新

# 为啥需要自建ChatGPT反代服务
OpenAI提供了两种访问方式,一种是直接在ChatGPT网页端使用的Access Token方式,这种方式可以免费使用GPT-3.5模型,只需要登录即可使用。但缺点是不稳定,且无法扩展。另一种是使用API,注册用户可以获得5美元的赠送额度,但使用完之后就需要付费。这种方式相对更稳定,但缺点是赠送额度较少且存在限流,目前是3条/分钟。

因此,对于那些希望免费使用OpenAI GPT-3.5模型的用户来说,选择Access Token方式是比较好的选择。但是需要解决的问题是不稳定以及可能IP被封禁的问题。为了解决这些问题,我们可以自建反向代理服务来提高稳定性,并保护我们的IP地址不被OpenAI封禁。也有一些公共的反向代理服务可以选择使用,但是很不稳定,因为它们是免费共享的。所以自建反向代理服务是一个不错的选择

|:octocat:机场推荐|:link:链接| :pushpin:机场概况
|--|--|--|
|:white_check_mark:魔戒|[:link:官网](https://mojie.me/#/register?code=CG6h8Irm)|按量不限时、不限速、不限设备,解锁ChatGPT
|:white_check_mark:Teacat|[:link:官网](https://teacat2.com/#/register?code=ps4sZcDa)|按周期、不限速、不限设备、IEPL专线,解锁ChatGPT
|:white_check_mark:八戒|[:link:官网](https://bajie.one/#/register?code=uX4zUk5c)|按量不限时、IEPL专线、不限速、不限设备、低延迟,高网速,解锁ChatGPT|
|:white_check_mark:acyun|[:link:官网](https://acyunyh.yydsii.com/index.php#/register?code=ZvmLh28A)|按量不限时(3T只需40RMB)、高速中转线路、不限速、不限制客户端数量,解锁ChatGPT|

# ChatGPT-Porxy一键部署
> **如果自己安装觉得麻烦,可以使用我提供的一键部署脚本!** 脚本目前已实现基础环境安装、所需组件依赖部署、镜像版本自动更新、403|401|429、ERROR检测邮箱告警、uptime-kuma监控等功能!脚本支持arm架构一键部署,但是注意 warp 不支持arm架构!

🔔 **说明**:目前脚本适用于CentOS 7\8\9、RHEL-8\9、Ubuntu、debian以及opencloudos系统;运行脚本需要确保网络环境稳定(确保系统所需组件可以正常下载)。

⚠️ **提示**:目前脚本支持[linweiyuan/go-chatgpt-api](https://github.com/linweiyuan/go-chatgpt-api) 和 [gngpp/ninja](https://github.com/gngpp/ninja) 项目的一键部署。go-chatgpt-api项目作者已弃坑,大家搭建时可以优先选择部署 ninja

🚀 **重要**:ninja项目:目前GPT4需要Arkose Token作为参数发送,所以你需要一个Arkose Toke端点或者去官方发送会话消息获取HAR日志记录文件,ninja项目可以使用启动参数`--arkose-token-endpoint`指定端点获取token 或者使用参数`--arkose-chat-har-file`指定HAR文件路径使用;或者部署完成之后通过WEB界面上传更新HAR,请求路径:`/har/upload`

🔔 **下载HAR文件方法**:登入官网,浏览器打开 `F12` 选择网络,然后发送一次会话消息,下载 `https://tcr9i.chat.openai.com/fc/gt2/public_key/35536E1E-65B4-4D96-9D97-6ADB7EFF8147` 接口的HAR日志记录文件(GPT3.5和4的文件名称不一样,但是格式一样,这里列举的是GPT4)

> 近日,`OpenAI`取消对`GPT-3.5`进行`Arkose`验证,可以不上传HAR特征文件使用(已上传的不影响),兼容后续可能会再次开启`Arkose`验证,需要加上启动参数`--arkose-gpt3-experiment`进行开启`GPT-3.5`模型`Arkose`验证处理(使用方法与GPT4一样),WebUI不受影响.

```shell
bash -c "$(curl -fsSL https://raw.githubusercontent.com/dqzboy/ChatGPT-Proxy/main/install/chatgpt-proxy.sh)"
```

---

# ChatGPT-Porxy手动部署
## 一、环境说明
- 一台VPS,规格最低配 1C1G;**注意**:warp不支持arm架构的机器
- VPS可以正常访问 [chatgpt](https://chat.openai.com);或者国内服务器实现科学上网也可以
- 参考文章[国内服务器实现科学上网](https://www.dqzboy.com/13754.html)
- 部署docker和docker-compose

> 特别说明:目前这个项目,经过多个版本迭代之后比较稳定;目前可以一个服务多人共用

## 二、部署docker
- 设置一个yum源,下面两个都可用
```shell
# 中央仓库
yum-config-manager --add-repo http://download.docker.com/linux/centos/docker-ce.repo

# 阿里仓库
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

# 安装docker
yum -y install docker-ce

# 启动并设置开机自启
systemctl start docker
systemctl enable docker
systemctl status docker
```

## 三、部署docker-compose
```shell
(1)定义Docker-Compose版本变量
export composeVer=v2.16.0

(2)下载最新版本的 docker-compose 到 /usr/bin 目录下
curl -L https://github.com/docker/compose/releases/download/${composeVer}/docker-compose-`uname -s`-`uname -m` -o /usr/bin/docker-compose

(3)给 docker-compose 授权
chmod +x /usr/bin/docker-compose

(4)检查docker-compose安装情况
docker-compose -v
```

## 四、部署ChatGPT反代
### ChatGPT反代项目:[gngpp/ninja](https://github.com/gngpp/ninja)
#### 1、创建工作目录
```shell
mkdir -p /data/go-chatgpt-api && cd $_
```
#### 2、创建部署清单
> 目前GPT3.5和GPT-4 相关模型目前需要验证 arkose_token,自行搭建arkose_token端点可参考项目:[xyhelper-arkose-v2](https://github.com/xyhelper/xyhelper-arkose-v2)

> 免费服务:https://chatarkose.xyhelper.cn/token
#### 服务器直连或通过代理可正常访问ChatGPT
- 如果你的VPS IP稳定,或者你使用的科学上网地址稳定,那就首选这种方式
```shell
~]# vim docker-compose.yml

version: '3'
services:
ninja:
image: gngpp/ninja:latest # ghcr.io/gngpp/ninja:latest
#国内VPS无法下载镜像的使用镜像代理:ghcr.dockerproxy.com/gngpp/ninja:latest
container_name: ninja
restart: unless-stopped
environment:
- TZ=Asia/Shanghai
- PROXIES= # PROXIES=:可配置科学上网代理地址,例如:http://clash_vpsIP:7890;注释掉或者留空则不启用
command: run # --enable-direct开启本地直连(默认关闭) --disable-webui关闭自带WEB --arkose-gpt3-experiment开启GPT-3.5模型Arkose验证
ports:
- 8080:7999 # 容器端口映射到宿主机8080端口;宿主机监听端口可按需改为其它端口
```

#### 基于Cloudflare WARP模式
- 解决IP被Ban,提示Access denied之类的报错
- 如果使用此模式还是提示Access denied,大概率是你机器IP不干净或者用的国内服务器导致验证码过不去
- Cloudflare WARP官网文档:https://developers.cloudflare.com/warp-client/get-started/linux
```shell
~]# vim docker-compose.yml

version: '3'
services:
ninja:
image: gngpp/ninja:latest # ghcr.io/gngpp/ninja:latest
#国内VPS无法下载镜像的使用镜像代理:ghcr.dockerproxy.com/gngpp/ninja:latest
container_name: ninja
restart: unless-stopped
environment:
- TZ=Asia/Shanghai
- PROXIES=socks5://warp:10000
command: run # --enable-direct开启本地直连(默认关闭) --disable-webui关闭自带WEB --arkose-gpt3-experiment开启GPT-3.5模型Arkose验证
ports:
- 8080:7999 # 容器端口映射到宿主机8080端口;宿主机监听端口可按需改为其它端口
depends_on:
- warp

warp:
container_name: warp
image: ghcr.io/gngpp/warp:latest
restart: unless-stopped

watchtower:
container_name: watchtower
image: containrrr/watchtower
volumes:
- /var/run/docker.sock:/var/run/docker.sock
command: --interval 3600 --cleanup
restart: unless-stopped
```
---

### ChatGPT反代项目:[linweiyuan/go-chatgpt-api](https://github.com/linweiyuan/go-chatgpt-api)
- 目前已经支持多次对话
#### 1、创建工作目录
```shell
mkdir -p /data/go-chatgpt-api && cd $_
```
#### 2、创建部署清单
> 目前GPT3.5和GPT-4 相关模型目前需要验证 arkose_token,自行搭建arkose_token端点可参考项目:[xyhelper-arkose-v2](https://github.com/xyhelper/xyhelper-arkose-v2)

> 免费服务:https://chatarkose.xyhelper.cn/token
#### 服务器直连或通过代理可正常访问ChatGPT
- 如果你的VPS IP稳定,或者你使用的科学上网地址稳定,那就首选这种方式
```shell
~]# vim docker-compose.yml

version: "3"
services:
go-chatgpt-api:
container_name: go-chatgpt-api
image: linweiyuan/go-chatgpt-api
ports:
- 8080:8080 # 容器端口映射到宿主机8080端口;宿主机监听端口可按需改为其它端口
#network_mode: host # 可选,将容器加入主机网络模式,即与主机共享网络命名空间;上面的端口映射将失效
volumes:
- /var/run/docker.sock:/var/run/docker.sock:ro
environment:
- TZ=Asia/Shanghai
- PROXY= # GO_CHATGPT_API_PROXY=:可配置科学上网代理地址,例如:http://clash_vpsIP:7890;注释掉或者留空则不启用
- ARKOSE_TOKEN_URL=
- BX=
- BX_URL=
- OPENAI_EMAIL=
- OPENAI_PASSWORD=
- CONTINUE_SIGNAL= # CONTINUE_SIGNAL=1,开启/imitate接口自动继续会话功能,留空关闭,默认关闭
restart: unless-stopped
```

#### 基于Cloudflare WARP模式
- 解决IP被Ban,提示Access denied之类的报错
- 如果使用此模式还是提示Access denied,大概率是你机器IP不干净或者用的国内服务器导致验证码过不去
- Cloudflare WARP官网文档:https://developers.cloudflare.com/warp-client/get-started/linux
```shell
~]# vim docker-compose.yml

version: "3"
services:
go-chatgpt-api:
container_name: go-chatgpt-api
image: linweiyuan/go-chatgpt-api
ports:
- 8080:8080 # 容器端口映射到宿主机8080端口;宿主机监听端口可按需改为其它端口
#network_mode: host # 可选,将容器加入主机网络模式,即与主机共享网络命名空间;上面的端口映射将失效
volumes:
- /var/run/docker.sock:/var/run/docker.sock:ro
environment:
- TZ=Asia/Shanghai
- PROXY=socks5://chatgpt-proxy-server-warp:65535
- BX=
- BX_URL=
- OPENAI_EMAIL=
- OPENAI_PASSWORD=
- CONTINUE_SIGNAL=
depends_on:
- chatgpt-proxy-server-warp
restart: unless-stopped

chatgpt-proxy-server-warp:
container_name: chatgpt-proxy-server-warp
image: linweiyuan/chatgpt-proxy-server-warp
environment:
- LOG_LEVEL=OFF
restart: unless-stopped
```

## 五、运行容器服务
```shell
docker-compose up -d

# 检查运行的容器;确保容器状态为UP
docker ps

# 检测容器映射到宿主机的监听端口是否监听
ss -tnlp|grep 8080
```

## 六、检查是否正常
### ninja容器运行日志查看
```shell
# 查看容器日志是否运行正常
docker logs -f ninja
```

### go-chatgpt-api需要初始化启动需要耐心等待
```shell
# 查看容器日志是否运行正常
docker logs -f go-chatgpt-api
```

- 出现下图中 `Service go-chatgpt-api is ready.` 则表示服务可正常使用了

## 七、容器镜像更新
```shell
# 停止
docker-compose down

# 拉取新镜像
docker-compose pull

# 启动
docker-compose up -d
```

## 八、项目接入自建反代
### ninjia
> 接口使用, * 表示任意URL后缀
- backend-api, http(s)://host:port/backend-api/*
- public-api, http(s)://host:port/public-api/*
- platform-api, http(s)://host:port/dashboard/*
- chatgpt-to-api, http(s)://host:port/v1/chat/completions

> 关于关于ChatGPT转API使用,直接拿AceessToken当API Key使用,接口路径:/v1/chat/completions

### go-chatgpt-api
- 原接口: http://go-chatgpt-api:8080/chatgpt/conversation
- 更新后: http://go-chatgpt-api:8080/chatgpt/backend-api/conversation

#### 项目:[Chanzhaoyu/chatgpt-web](https://github.com/Chanzhaoyu/chatgpt-web) | [Kerwin1202/chatgpt-web](https://github.com/Kerwin1202/chatgpt-web)
##### **ChatGPTUnofficialProxyAPI(accessToken)**
- 现在我们可以找一个项目,使用access token模式,并使用我们自建的代理地址进行访问;
- 自建IP的访问地址为http://vps-ip:8080/chatgpt/backend-api/conversation
- 如果前端项目是直接跑的并且与反代服务同在一台VPS上,则反代地址可写成:http://127.0.0.1:8080/chatgpt/backend-api/conversation
- 如果你前端项目是容器启的并且与反代服务同在一台VPS上,则反代地址可写成:http://go-chatgpt-api:8080/chatgpt/backend-api/conversation

- access token获取:https://chat.openai.com/api/auth/session
```shell
# ninja-chatgpt-api
API_REVERSE_PROXY=http(s)://host:port/backend-api/conversation

# go-chatgpt-api
API_REVERSE_PROXY=http://127.0.0.1:8080/chatgpt/backend-api/conversation
```

- 现在我们访问chatgpt-web,查看是否可以正常使用

- 同样日志返回请求结果正常

##### **ChatGPTAPI(APIKEY)**
- 使用ChatGPTAPI模式,并使用我们自建的代理地址进行访问;
- 自建IP的访问地址为http://vps-ip:8080/platform
- 如果前端项目是直接跑的并且与反代服务同在一台VPS上,则反代地址可写成:http://127.0.0.1:8080/platform
- 如果你前端项目是容器启的并且与反代服务同在一台VPS上,则反代地址可写成:http://go-chatgpt-api:8080/platform
```shell
OPENAI_API_BASE_URL=http://127.0.0.1:8080/platform
```

#### 项目:[chatgpt-mirai-qq-bot](https://github.com/lss233/chatgpt-mirai-qq-bot)
```shell
## ninja-chatgpt-api
# ==== OpenAI 部分开始
[openai]
# OpenAI 相关设置
# 自定义 ChatGPT 的 browserless 接入点
# 自 3月9日 开始,不设置此项将无法正常使用 browserless 模式下的网页版 ChatGPT
browserless_endpoint = "http(s)://你的服务地址或者IP/backend-api/"

## go-chatgpt-api
# ==== OpenAI 部分开始
[openai]
# OpenAI 相关设置
# 自定义 ChatGPT 的 browserless 接入点
# 自 3月9日 开始,不设置此项将无法正常使用 browserless 模式下的网页版 ChatGPT
browserless_endpoint = "http(s)://你的服务地址或者IP/chatgpt/backend-api/"
```
#### 项目:[moeakwak/chatgpt-web-share](https://github.com/moeakwak/chatgpt-web-share)
```shell
CHATGPT_BASE_URL = "http(s)://你的服务地址或者IP/chatgpt/backend-api/"
```
#### 项目:[Yidadaa/ChatGPT-Next-Web](https://github.com/Yidadaa/ChatGPT-Next-Web)
- 接口:http://go-chatgpt-api:8080/imitate/v1/chat/completions 利用 accessToken 模拟 apiKey,实现伪免费使用 API ,从而支持仅支持 apiKey 调用的第三方客户端项目
- **注意:** 下面的接口地址可以直接在浏览器打开访问才可以正常被Next-Web使用
```shell
# go-chatgpt-api
http://IP:8080/imitate

# ninja
http://IP:8080
```

## 部署总结
> 目前使用发现,只要确保节点稳定或者国内服务器配置的代理地址稳定(没有被opeai封锁),那么就可以正常使用。

## 问题总结
### 1、ERRO[00xx] Access denied
- 问题描述:按照步骤部署起来了,但是查看go-chatgpt-api日志提示ERRO[0015] Access denied
- 问题原因:大概率你的VPS IP不干净或者使用的国内服务器;如果使用的代理,那么进入到容器查看下IP是啥或者更换个代理节点
```shell
docker exec chatgpt-proxy-server curl -x socks5://代理 ipinfo.io
```

### 2、Failed to handle captcha: timeout
- 问题原因:这个错误就是处理不了验证码
- 解决方法:重启 api 恢复正常;先 down 再 up,不能 restart

### 3、pthread_create: Operation not permitted (1)
- 问题原因:是由于 Docker 容器的安全限制导致的,container内的root只是外部的一个普通用户权限,所以会出现这个问题
- 问题解决:`docker-compose.yml` 添加参数 `privileged: true`

### 4、ChatGPT error 404: {"errorMessage":"[object Object]"}
- 问题原因:如果你更新到了新版本,那么接口需要进行更改
- 解决方法:
```shell
http://127.0.0.1:8080/chatgpt/backend-api/conversation
```

### 5、Connection refused
- 问题原因:accesstoken过期或者账号被封禁
- 问题解决:重启获取新的accesstoken,或者注册新账号

### 6、ChatGPTUnofficialProxyAPI.sendMessage: conversationId and parentMessageId must both be set or both be undefined
- 问题原因:有可能你是api和token同时使用,并且在同一个会话
- 问题解决:切换新的会话;或者把会话清除掉

### 7、ERRO[0000] Looks like you have bean blocked
- 问题原因:字面意思,你的VPS或者节点IP被openai封锁了,无法访问;ping通不代表就可以正常访问
- 问题解决:(1)更换IP;(2)使用warp

### 8、ninja:code: 500 Internal Server Error latency=0 ms
- 问题原因:(1)节点IP完成被openai拉黑了;(2)由于现在GPT3.5和GPT4都需要验证Arkose Token
- 问题解决:(1)换一个可用的节点;(2)延迟0ms,那就需要配置Arkose Token端点或先上传HAR文件之后,在进行访问chatgpt

### 9、OpenAI: {"detail":{"message":"Client challenge required","code":"challenge_required"}} (code: 418),然后代理状态码200,请求耗时0 ms
- 问题原因:使用的是AccessToekn,节点IP问题,出码了;还有可能是AccessToekn过期
- 问题解决:换一个可用的IP,或者更新AccessToekn试试

## ChatGPT WEB项目一键部署脚本
[chatgpt-web一键部署脚本](https://github.com/dqzboy/chatgpt-web)