input/
を参考input/labels_enesub.txt
は教師データに合わせて準備する
-
BERT事前学習モデル: BERT日本語Pretrainedモデル(京大)
Japanese_L-12_H-768_A-12_E-30_BPE
- NERなので単語単位のBERTを採用している
-
知識ベースとして用いる 「拡張固有表現+Wikipedia」データ
ENEW_ENEtag_20160305.txt
ENEW_StructuredWikipedia_20160305.txt
- install
pipenv
- GPU利用時は
tensorflow-gpu
に書き換える
- GPU利用時は
pipenv install