Ecosyste.ms: Awesome

An open API service indexing awesome lists of open source software.

Awesome Lists | Featured Topics | Projects

https://github.com/qiufengyuyi/sequence_tagging

using bilstm-crf,bert and other methods to do sequence tagging task
https://github.com/qiufengyuyi/sequence_tagging

bilstm-crf ner

Last synced: about 1 month ago
JSON representation

using bilstm-crf,bert and other methods to do sequence tagging task

Awesome Lists containing this project

README

        

# sequence tagging project

-- **更新update 2020.08.16:** --

增加了论文实现[Enhancing Pre-trained Chinese Character Representation with Word-aligned Attention](https://arxiv.org/abs/1911.02821) ,基于pytorch 1.6.0,以及huggingface的transformers 2.11.0。分词工具使用了百度的lac2.0,thulac,ltp,请自行安装这些工具。

另外,我上传了已经分词好的结果,在data下面的set_orig_data_*.json中。如果想自行分词,请参考word_seg_utils.py代码。

可以使用test_data_processing.py来生成数据文件。

## 训练pytorch运行脚本:

```shell
bash run_torch.sh
```

reference

pytorch ner框架实现参考了 https://github.com/lonePatient/BERT-NER-Pytorch ,mwa实现参考了 https://github.com/lsvih/MWA

------

-- **更新update 2020.02.05:** --

**补充了缺失的代码和脚本,同时加了一点样例数据,方便测试代码是否可以完整运行。**

------

依赖包:主要是tensorflow 1.12.0,其余见requirements.txt

目前项目包含了传统的Bilstm-crf模型和使用了bert的模型。

针对的数据:目前是基于字符级别标注的实体识别数据。使用网上公开的字符级的中文词向量。

TODO:

1、结合词级别的词向量与字符向量结合,做字符级别的tagging,已完成100%

2、joint learning with intent classification

3、不用bert,在lstm-crf基础上进行优化,增加cnn的架构,或者attention机制。已完成100%

4、seq label 转化为阅读理解问题。参考最新的论文 A Unified MRC Framework for Named Entity Recognition 已完成100%

使用的词向量来源于:

https://github.com/Embedding/Chinese-Word-Vectors

词向量模型存放在data/embedding_data路径下

使用的bert预训练模型为:

chinese_roberta_wwm_ext_L-12_H-768_A-12

bert预训练模型存放在data/根路径下

训练数据目前暂时没法传上来,但是格式可以如下所示:

> 海 钓 比 赛 地 点 在 厦 门 与 金 门 之 间 的 海 域 。
>
> O O O O O O O B-LOC I-LOC O B-LOC I-LOC O O O O O O

如上为一条样本。项目中的data_preprocessing会根据不同的方法做预处理,并将处理后的数据用.npy格式存储。

目前bert+mrc训练和评测没有问题,其他方法待优化完善。

## 训练运行脚本:

```shell
bash run_train.sh
```

## 评测运行脚本:

```shell
bash run_pred.sh
```

## 实验结果部分汇总:

| method | f1-micro-avg |
| :---------------------: | :----------: |
| bilstm+$crf_{baseline}$ | 0.8702 |
| bilstm+crf+wordemb | 0.8783 |
| bilstm+cnn+crf+wordemb | 0.8818 |
| bert+celoss | 0.9333 |
| bert+bilstm+crf | 0.9387 |
| bert+diceloss | 0.9354 |
| bert+mrc+celoss | 0.9550 |
| bert+mrc+focalloss | 0.9580 |