TOHOKU NLP LAB - 東北大学 乾・鈴木研究室TOHOKU NLP LAB - 東北大学 乾・鈴木研究室

MENU
2019 Dec.13
News Release

Pretrained Japanese BERT models released / 日本語 BERT モデル公開

Our pretrained Japanese BERT models are now available in Transformers by Huggingface. This work is done by 2nd year Ph.D. student Masatoshi Suzuki.

研究室で公開している訓練済み日本語BERTモデルが、自然言語処理ライブラリのTransformersで利用可能なモデルとして追加されました。
鈴木正敏さん(博士課程2年)の取り組みです。

Last-modified: 2019-12-13 (Fri) 14:47:11 (244d)

Recent Changes
Close