Ecosyste.ms: Awesome
An open API service indexing awesome lists of open source software.
https://github.com/adriacabeza/deepcatalan
🤖 Deep Catalan: Bring closer the Catalan Language to Deep Learning using ULMFit.
https://github.com/adriacabeza/deepcatalan
catalan catalan-language classificador fastai fine-tuning nlp pytorch ulmfit
Last synced: about 1 month ago
JSON representation
🤖 Deep Catalan: Bring closer the Catalan Language to Deep Learning using ULMFit.
- Host: GitHub
- URL: https://github.com/adriacabeza/deepcatalan
- Owner: adriacabeza
- Created: 2020-08-14T17:20:40.000Z (over 4 years ago)
- Default Branch: master
- Last Pushed: 2020-10-15T08:27:19.000Z (about 4 years ago)
- Last Synced: 2024-07-31T20:46:07.241Z (5 months ago)
- Topics: catalan, catalan-language, classificador, fastai, fine-tuning, nlp, pytorch, ulmfit
- Language: Jupyter Notebook
- Homepage:
- Size: 461 KB
- Stars: 12
- Watchers: 3
- Forks: 0
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
Awesome Lists containing this project
README
DeepCatalan: Catalan version for ULMFit
[![Open Source Love](https://badges.frapsoft.com/os/v3/open-source.svg?v=103)](https://github.com/ellerbrock/open-source-badges/)
[![made-with-python](https://img.shields.io/badge/Made%20with-Python-1f425f.svg)](https://www.python.org/)
[![star this repo](https://img.shields.io/github/stars/adriacabeza/DeepCatalan?label=Star&style=flat-square)](https://github.com/adriacabeza/DeepCatalan)
[![fork this repo](https://img.shields.io/github/forks/adriacabeza/DeepCatalan?label=Fork&style=flat-square)](https://github.com/adriacabeza/DeepCatalan/fork)> Since this repository is built with the goal of making possible to use DL models in Catalan, I've decided to document everything in Catalan. If you have any question, do not hesitate in creating an issue or contacting me.
Últimament hi està havent un boom en el camp del NLP, en especial en el camp en els transformadors (i.e. BERT, GPT-3). No obstant, es tendeix a enfocar l'interés únicament en l'anglès; les altres llengües queden apartadles dels nous models i tècniques. És per això que he decidit entrenar aquest model en Català . La idea és que els pesos serveixin de base per a crear noves aplicacions que utilitzin NLP en català (de la mateixa manera que sol fer fine-tuning amb models entrenats amb ImageNet).
Aquest repositori conté l'entrenament d'[ULMFit](https://arxiv.org/pdf/1801.06146.pdf), model ideat per en Jeremy Howard i en Sebastian Ruder, aplicat a tasques de processament de llenguatge natural en Català . El model s'ha entrenat amb un dump d'articles en català de Wikipedia. En total s'han processat **252.016 documents i més de 98 millons de tokens**. El projecte s'ha basat principalment en [el codi oficial de Fastai](https://github.com/fastai/fastai/tree/1700eaa771bd3e66fe582aa4add999fdd269d240/courses/dl2/imdb_scripts) (el qual està una mica antiquat i s'hauria de renovar) i [DeepFrench](https://github.com/tchambon/deepfrench) (la versió de ULMFIT en francès).
Per a provar els weights d'aquest multi-purpose model en català he realitzat una prova scrapejant notÃcies de diverses pà gines web i construint un classificador.
## Ús
Hi ha dos notebooks disponibles els quals ja descarreguen a l'inici les seves dependències de Python. Els dos estan preparats per a runnejar a Google Colab (no tothom té GPUS cares a casa) :
- Entrenar ULMFit amb wikipedia: [CatalanULMFit.ipynb](CatalanULMFit.ipynb).
- Entrenar un classificador fent servir els pesos preentrenats: [ClassificadorNoticies.ipynb](ClassificadorNoticies.ipynb). Per aquest pas hauràs de crear un dataset (no té perquè ser molt gran, s'han demostrar resultats molt bons amb poca data).## Pesos preentrenats
- [CatalanULMFit](https://mega.nz/folder/b2ZjwaqB#pMAEy-OFVbDvQu4Vk63mpQ) (218 MB): model amb una perplexitat de **21.54** i un vocabulari de **30.656** paraules.
- [ClassificadorNotÃcies](https://mega.nz/folder/b2ZjwaqB#pMAEy-OFVbDvQu4Vk63mpQ) (195 MB): model de prova que classifica notÃcies en 5 categories: esports, economia, cultura, tecnologia i salut. El model té una accuracy del **94.4%**.## Exemple: Classificació de notÃcies
La grà cia d'aquest model, com explicaré posteriorment, és que ens permet fer fine-tuning de manera rà pida i amb poca data. Com a exemple, jo he fet un classificador de notÃcies.
El dataset consisteix en un conjunt de 889 notÃcies scrapejades d'internet amb la seva temà tica:
Amb relativament poca data i fent ús de poc poder computacional (Google Colab) s'han aconseguit resultats molt bons:
## El model: ULMFit
Tot i que recomano donar-li una lectura al [paper original](https://arxiv.org/pdf/1801.06146.pdf), aquà he fet una explicació breu de les tècniques explicades en el paper que s'han usat per crear ULMfit.
La idea principal que s'ataca aquà és utilitzar *inductive transfer learning* en NLP. L' *inductive transfer learning* consisteix en agafar models que ja han estat entrenats anteriorment per a una altra tasca similar i tunejar-los per a la tasca desitjada. Això ens permet entrenar molt més rà pid i aconseguir millors resultats. És una tècnica que ja ha canviat per complet la Visió per Computador. No obstant, en el camp del NLP, els models SOTA encara es solen entrenar des de zero ja que no s'ha trobat cap mètode robust del tot efectiu.
El model, LM (Language Model), es basa en **AWD-LSTM** i és més aviat simple: és un embedding, 3 capes LSTM (Long Short Term Memory) i un conjunt final de capes lineals. La part innovadora del model AWD-LSTM és una tècnica anomenada DropConnect, la qual, de manera semblant a Dropout, posa a 0 de manera random alguns weights durant l'entrenament.
L'entrenament de ULMFit es basa en tres pasos:
1- El LM es preentrena amb un corpus de domini-general molt gran amb l'objectiu de predir la següent paraula. En el paper original esmenten a Wikitext-103, dataset que conté 28.595 articles de Wikipedia amb 103 milions de paraules.
2- Llavors, un cop entrenat, es fa *fine-tuning* amb la data de la tasca desitjada. Aquest pas es fa perquè tot i que el dataset de domini-general sigui molt divers, el més probable és que la data de la tasca desitjada tingui una distribució diferent.
Aquest pas es realitza amb una tènica nova anomenada *discriminative fine-tuning* i *slanted triangular learning rates*:
- **Discriminative fine-tuning**: Aquest mètode es basa en tunejar cada layer del model amb un learning rate diferent. La relació de learning rates que es fa servir entre capes es va trobar empÃricament:
- **Slanted triangular learning rates**: Consisteix en incrementar inicialment el learning rate linealment i llavors disminuir-lo segons unes determinades regles (més detall al paper original):
L'utilitzem perquè volem convergir de manera rà pida a una regió del espai adecuada (el perÃode en el que el learning rate augmenta) i llavors refinar adequadament els parà metres (perÃode on el learning rate va disminuir).
3- Finalment, podem tunejar el model per a realitzar la tasca de classificació desitjada (fent servir només l'encoder del model i borrant el classificador que predia la següent paraula). En aquest pas afegim dos blocs lineals bastant semblants als blocs standards que podem trobar en Visió per Computador: Batch Normalization, Dropout, ReLU activations per a les activacions intermitges i una Softmax al final. En aquest pas **només els parà metres d'aquests blocs son tunejats de zero**.
Dues tècniques adicionals que cal esmentar en aquest últim pas són el *Gradual unfreezing* i *concat pooling*:
- **Gradual unfreezing**:
En comptes de fer *fine-tuning* a totes les layers de cop (mètode que podria causar que es perdés informació), gradualment les descongelem començant per la última.
Es decongela la última, s'entrena un epoch, es decongela l'anterior, i s'entrenen dos epochs... i aixà fins al final. Un cop totes les layers estan descongelades s'entrena fins que s'arriba a convergir.
- **Concat pooling**:
Normalment la informació rellevant en un text per a ser classificat està contingut en poques paraules. Com a input potser tenim documents que consisteixen en centenars de paraules de manera que l'estat amagat de la LSTM potser no conté tota la informació que necessitem. Per això en aquest model es concatena l'estat amagat de l'últim pas, amb la representació max-pooled i mean-poolen dels estats amagats anteriors.
## Col·laborar
Si voleu col·laborar, feel free de fer pull-request. A més si no sabeu en què podeu col·laborar, aquà deixo algunes idees:
- [ ] Crear un classificador fent servir BERT i comparar la performance amb un de creat a partir dels pesos de CatalanULMFit.
- [ ] Fer fine-tuning a una altra tasca (similar a l'exemple del classificador de notÃcies).
- [ ] Millorar el model CatalanULMFit.