Ecosyste.ms: Awesome
An open API service indexing awesome lists of open source software.
https://github.com/airmomo/webchat
一个AI助手,可以帮你理解和分析当前网页的内容。基于Chrome扩展的最佳实践开发,AI助手能够基于当前网页内容进行智能问答。支持自定义API和本地大模型。
https://github.com/airmomo/webchat
chrome-extension llm web-application
Last synced: 4 days ago
JSON representation
一个AI助手,可以帮你理解和分析当前网页的内容。基于Chrome扩展的最佳实践开发,AI助手能够基于当前网页内容进行智能问答。支持自定义API和本地大模型。
- Host: GitHub
- URL: https://github.com/airmomo/webchat
- Owner: Airmomo
- License: agpl-3.0
- Created: 2024-11-16T13:06:54.000Z (2 months ago)
- Default Branch: main
- Last Pushed: 2024-12-13T18:05:32.000Z (about 1 month ago)
- Last Synced: 2024-12-13T19:22:20.134Z (about 1 month ago)
- Topics: chrome-extension, llm, web-application
- Language: JavaScript
- Homepage:
- Size: 114 MB
- Stars: 4
- Watchers: 1
- Forks: 1
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
- License: LICENSE
Awesome Lists containing this project
README
# WebChat:可以帮你理解和分析当前网页的内容的AI助手
**【完全开源】** 基于Chrome扩展的最佳实践开发,AI助手能够基于当前网页内容进行智能问答。支持自定义API和本地大模型。
## 功能特性
- ✅🤖 基于网页内容的智能问答
- ✅💬 流式输出回答内容
- ✅📝 消息渲染支持Markdown格式
- ✅🛠️ 支持自定义API和本地模型
- ✅🔍 聊天支持上下文
- ✅🔢 自定义保留对话轮数(避免超出模型上下文长度限制)
- ✅✍️ 自定义系统提示词(不会影响其作为网页AI助手的本质)## 演示视频
**由于项目内容会更新,所以实际设置与功能展示可能与演示视频有些不同,请以实际使用为准。**
https://github.com/user-attachments/assets/a0ae0231-cc22-43d4-811f-b1a6e95f3d19
## 安装方法
1. 下载项目代码:`https://github.com/Airmomo/WebChat.git`
2. 打开Chrome扩展管理页面 (chrome://extensions/)
3. 开启"开发者模式"
4. 点击"加载已解压的扩展程序"
5. 选择项目文件夹## 基本使用说明
- 插件开启后刷新页面会显示一颗悬浮球,点击它打开对话框
- 输入问题后点击发送并等待AI回答
- 右键点击历史消息可复制内容## 支持的API
### 自定义API
- 支持OpenAI兼容的API接口
- 可配置自定义端点### Ollama本地部署开源模型
1. 从[官网](https://ollama.ai)下载安装 Ollama
2. 设置允许跨域并启动:
- macOS:
```bash
launchctl setenv OLLAMA_ORIGINS "*"
```
- Windows:
1. 打开控制面板-系统属性-环境变量
2. 在用户环境变量中新建:
- 变量名:`OLLAMA_HOST`,变量值:`0.0.0.0`
- 变量名:`OLLAMA_ORIGINS`,变量值:`*`
- Linux:
```bash
OLLAMA_ORIGINS="*" ollama serve
```
3. 安装模型:
```bash
ollama pull qwen2.5
```
4. 启动或重启Ollama服务
```bash
ollama serve
```
5. 注意事项
可使用自定义 API 接口地址来请求ollama服务:
`http://localhost:11434/v1/chat/completions`
如果你是在局域网内其他主机运行的ollama服务,那么请将localhost替换为你的主机IP地址。## 注意事项
1. 使用自定义API需要配置API密钥
2. 使用本地模型需要先安装并启动ollama,并确保服务在后台运行
3. 确保网络连接正常
4. 网页内容仅用于当前对话,刷新页面后对话的内容以及历史记录会丢失## 隐私说明
- 本插件完全开源,不会收集任何个人信息
- 配置信息默认保存在本地浏览器中