登录 注册
当前位置:主页 > 资源下载 > 50 > 天池NLP中文预训练模型泛化能力挑战赛所配套的代码名为tianchi_bert_nlp

天池NLP中文预训练模型泛化能力挑战赛所配套的代码名为tianchi_bert_nlp

  • 更新:2024-07-30 11:56:02
  • 大小:6.45MB
  • 推荐:★★★★★
  • 来源:网友上传分享
  • 类别:其它 - 开发技术
  • 格式:ZIP

资源介绍

使用说明 找个预训练的bert丢数据/ pre_model_dir文件夹,然后运行main.py就可以了 模型下载地址 项目介绍: : 代码说明地址:(或者直接下载本地的notebook) 文件树 ├── BertRCNN # 模型文件 │   ├── args.py # 模型的默认参数,不用管它 │   └── BertRCNN.py # 模型 ├── config.py # 配置文件,看看你想改啥,最好不要动文件 ├── data # 原始数据 │   ├── NLP_A_Data1128.md │   ├── pre_model_dir # 需要你把模型下载丢进去 │   │   ├── bert_config.json │   │   ├── pytorch_model.tar.gz # 这是一个gz结尾的文件,如果你下载下来没有那就把bert_config.js