Ecosyste.ms: Awesome
An open API service indexing awesome lists of open source software.
https://github.com/THUDM/ChatGLM2-6B
ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型
https://github.com/THUDM/ChatGLM2-6B
chatglm chatglm-6b large-language-models llm
Last synced: about 2 months ago
JSON representation
ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型
- Host: GitHub
- URL: https://github.com/THUDM/ChatGLM2-6B
- Owner: THUDM
- License: other
- Created: 2023-06-24T06:21:34.000Z (about 1 year ago)
- Default Branch: main
- Last Pushed: 2024-06-27T04:05:08.000Z (3 months ago)
- Last Synced: 2024-06-27T05:46:44.716Z (3 months ago)
- Topics: chatglm, chatglm-6b, large-language-models, llm
- Language: Python
- Homepage:
- Size: 7.12 MB
- Stars: 15,594
- Watchers: 134
- Forks: 1,851
- Open Issues: 451
-
Metadata Files:
- Readme: README.md
Awesome Lists containing this project
- awesome-foundation-models - [code
- Awesome_Multimodel_LLM - ChatGLM2-6B - An Open Bilingual Chat LLM | 开源双语对话语言模型 (Open Source LLM)
- awesome-llmops - ChatGLM2-6B - 6B is the second-generation version of the open-source bilingual (Chinese-English) chat model [ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B). | ![GitHub Badge](https://img.shields.io/github/stars/THUDM/ChatGLM2-6B.svg?style=flat-square) | (Model / Large Language Model)
- Awesome-AITools - GitHub - 6B?style=social)| 免费| (精选文章 / 开源大语言模型)
- awesome-llm-and-aigc - ChatGLM2-6B - 6B?style=social"/> : ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型。ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了更强大的性能、更强大的性能、更高效的推理、更开放的协议。 (Summary)
- awesome-llm-eval - ChatGLM2-6B - 开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了更长的上下文、更好的性能和更高效的推理. (LLM-List / Open-LLM)
- AiTreasureBox - THUDM/ChatGLM2-6B - 09-13_15680_1](https://img.shields.io/github/stars/THUDM/ChatGLM2-6B.svg)|ChatGLM2-6B: An Open Bilingual Chat LLM | (Repos)
- StarryDivineSky - THUDM/ChatGLM2-6B - 6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,引入了如下新特性:`更强大的性能`:全面升级了基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。`更长的上下文`:基于 FlashAttention 技术,我们将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练。对于更长的上下文,我们发布了 ChatGLM2-6B-32K 模型。LongBench 的测评结果表明,在等量级的开源模型中,32K 有着较为明显的竞争优势。`更高效的推理`:基于 Multi-Query Attention 技术,有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。`更开放的协议`:权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。 (文本生成、文本对话 / 大语言对话模型及数据)