Ecosyste.ms: Awesome

An open API service indexing awesome lists of open source software.

Awesome Lists | Featured Topics | Projects

https://github.com/loujie0822/Pre-trained-Models

预训练语言模型综述
https://github.com/loujie0822/Pre-trained-Models

Last synced: about 1 month ago
JSON representation

预训练语言模型综述

Awesome Lists containing this project

README

        

# PTMs: Pre-trained-Models in NLP
### NLP预训练模型的全面总结(持续更新中)

## 置顶

知乎文章1: [全面总结!PTMs:NLP预训练模型](https://zhuanlan.zhihu.com/p/115014536) ➡️➡️ [图片下载](https://github.com/loujie0822/Pre-trained-Models/blob/master/resources/PTMs.jpg)

知乎文章2:[nlp中的预训练语言模型总结](https://zhuanlan.zhihu.com/p/76912493)

知乎文章3:[nlp中的词向量对比](https://zhuanlan.zhihu.com/p/56382372)

## 1、论文汇总:

PTMs-Papers:

1. https://github.com/thunlp/PLMpapers
2. https://github.com/tomohideshibata/BERT-related-papers
3. https://github.com/cedrickchee/awesome-bert-nlp
4. https://bertlang.unibocconi.it/
5. https://github.com/jessevig/bertviz

## 2. PTMs单模型解读

1. 自监督学习:[Self-Supervised Learning 入门介绍](https://zhuanlan.zhihu.com/p/108625273)
2. 自监督学习:[Self-supervised Learning 再次入门](https://zhuanlan.zhihu.com/p/108906502)
3. 词向量总结:[nlp中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert](https://zhuanlan.zhihu.com/p/56382372)
4. 词向量总结:[从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史](https://zhuanlan.zhihu.com/p/49271699)
5. ELMo解读:[关于ELMo的若干问题整理记录](https://zhuanlan.zhihu.com/p/82602015)
6. BERT解读: [Bert时代的创新:Bert应用模式比较及其它](https://zhuanlan.zhihu.com/p/65470719)
7. XLNET解读:[XLNet:运行机制及和Bert的异同比较](https://zhuanlan.zhihu.com/p/70257427)
8. XLNET解读:[XLnet:比Bert更强大的预训练模型](https://zhuanlan.zhihu.com/p/71759544)
9. RoBERTa解读:[RoBERT: 没错,我就是能更强——更大数据规模和仔细调参下的最优BERT](https://zhuanlan.zhihu.com/p/75629127)
10. 预训练语言模型总结:[nlp中的预训练语言模型总结(单向模型、BERT系列模型、XLNet)](https://zhuanlan.zhihu.com/p/76912493)
11. 预训练语言模型总结:[8篇论文梳理BERT相关模型进展与反思](https://zhuanlan.zhihu.com/p/81157740)
12. ELECTRA解读: [ELECTRA: 超越BERT, 19年最佳NLP预训练模型](https://zhuanlan.zhihu.com/p/89763176)
13. 模型压缩 LayerDrop:[结构剪枝:要个4层的BERT有多难?](https://zhuanlan.zhihu.com/p/93207254)
14. 模型压缩 BERT-of-Theseus:[bert-of-theseus,一个非常亲民的bert压缩方法](https://zhuanlan.zhihu.com/p/112787764)
15. 模型压缩 TinyBERT:[比 Bert 体积更小速度更快的 TinyBERT](https://zhuanlan.zhihu.com/p/94359189)
16. 模型压缩总结:[BERT 瘦身之路:Distillation,Quantization,Pruning](https://zhuanlan.zhihu.com/p/86900556)

(持续更新中...)