https://github.com/bureaucratic-labs/models
Pre-trained models for tokenization, sentence segmentation and so on
https://github.com/bureaucratic-labs/models
conditional-random-fields machine-learning natural-language-processing russian-specific sentence-segmentation tokenization
Last synced: 29 days ago
JSON representation
Pre-trained models for tokenization, sentence segmentation and so on
- Host: GitHub
- URL: https://github.com/bureaucratic-labs/models
- Owner: bureaucratic-labs
- License: mit
- Archived: true
- Created: 2017-05-30T18:03:18.000Z (over 8 years ago)
- Default Branch: master
- Last Pushed: 2017-08-22T15:46:54.000Z (over 8 years ago)
- Last Synced: 2026-01-03T18:20:13.013Z (about 1 month ago)
- Topics: conditional-random-fields, machine-learning, natural-language-processing, russian-specific, sentence-segmentation, tokenization
- Language: Python
- Homepage:
- Size: 8.02 MB
- Stars: 15
- Watchers: 2
- Forks: 5
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
- License: LICENSE
Awesome Lists containing this project
README
# b-labs-models [](https://travis-ci.org/bureaucratic-labs/models)
Готовые к использованию статистические модели для русского языка
В качестве обучающего корпуса использовался словарь [OpenCorpora](http://opencorpora.org/) (4,000+ документов на конец мая 2017 года, в основном - новости и художественная литература)
# Установка
```bash
$ pip install b-labs-models
```
# Определение границ предложений
Результат по F1-мере при кросс-валидации (1/3 данных использовались как тестовые): 0.99
```python
from b_labs_models import SentenceSegmentator
text = '''
Разница цепей Маркова от сетей Маркова заключается в том, что первые генеративны (т.е. предсказывают вероятность следующего шага), а вторые — дискриминатины, т.е. рассчитывают вероятность текущего состояния.
Использовать тот или иной алгоритм зависит от решаемой задачи. А второе, и наиболее важное отличие — это то, что сети Маркова учитывают не только шаг (два и т.д.) вправо-влево по какому-либо из параметров, а по пучку взаимосвязанных параметров.
Скажем, для перевода это не только все его варианты, а и тематический контекст перевода, синтаксис и пр.
'''
segmentator = SentenceSegmentator()
sentences = segmentator.split(text)
assert len(list(sentences)) == 4
```
# Токенизация
Результат по F1-мере при кросс-валидации (условия те же): 0.98
*Здесь стоит отметить то, что у проекта OpenCorpora свой взгляд на токенизацию: например, токены могут содержать внутри себя точки (как Яндекс.Деньги) или одно слово может быть разбито на несколько токенов (например, Жан-Поль - это три токена)*
```python
from b_labs_models import Tokenizer
text = 'Плита дорожная железобетонная ПДН.м Серия 3.503.1-91, выпуск 1'
tokenizer = Tokenizer()
tokens = tokenizer.split(text)
assert list(tokens) == [
'Плита',
'дорожная',
'железобетонная',
'ПДН',
'.м',
'Серия',
'3.503.1-91',
',',
'выпуск',
'1',
]
```
# Частеречная разметка (part of speech tagging)
```python
from b_labs_models import POSTagger
tagger = POSTagger()
tokens = ['Весело', 'стучали', 'храбрые', 'сердца']
labels = tagger.tag(tokens)
assert list(zip(tokens, labels)) == [
('Весело', 'ADJS'),
('стучали', 'VERB'),
('храбрые', 'ADJF'),
('сердца', 'NOUN'),
]
```
## Обучение
TBD
## License
Source code licensed under MIT license, but source data (OpenCorpora annotated corpus, for example) may have different license.