-
天池NLP中文预训练模型泛化能力挑战赛所配套的代码名为tianchi_bert_nlp
资源介绍
使用说明
找个预训练的bert丢数据/ pre_model_dir文件夹,然后运行main.py就可以了
模型下载地址
项目介绍: :
代码说明地址:(或者直接下载本地的notebook)
文件树
├── BertRCNN # 模型文件
│ ├── args.py # 模型的默认参数,不用管它
│ └── BertRCNN.py # 模型
├── config.py # 配置文件,看看你想改啥,最好不要动文件
├── data # 原始数据
│ ├── NLP_A_Data1128.md
│ ├── pre_model_dir # 需要你把模型下载丢进去
│ │ ├── bert_config.json
│ │ ├── pytorch_model.tar.gz # 这是一个gz结尾的文件,如果你下载下来没有那就把bert_config.js