登录 注册
当前位置:主页 > 资源下载 > 16 > KeyPhraseGeneration-BERT:克隆此存储库,然后从scibert repo安装pytorch-pretrained-BERT,解压权重(将其权重转储文件重命名为pytorch_model.bin)并将vocab文件转换为新的文件夹模型。 相应地在experimentsbase_modelparams.json中更改参数。 如果GPU的VRAM约为11 GB,我们建议将批大小保持为4,序列长度为512,间隔为6个周期。 要进行培训,请运行命令python train.py --data_下载

KeyPhraseGeneration-BERT:克隆此存储库,然后从scibert repo安装pytorch-pretrained-BERT,解压权重(将其权重转储文件重命名为pytorch_model.bin)并将vocab文件转换为新的文件夹模型。 相应地在experimentsbase_modelparams.json中更改参数。 如果GPU的VRAM约为11 GB,我们建议将批大小保持为4,序列长度为512,间隔为6个周期。 要进行培训,请运行命令python train.py --data_下载

  • 更新:2024-10-30 13:29:44
  • 大小:37KB
  • 推荐:★★★★★
  • 来源:网友上传分享
  • 类别:其它 - 开发技术
  • 格式:ZIP

资源介绍

KeyPhraseGeneration-BERT 克隆此存储库,然后从scibert repo安装pytorch-pretrained-BERT,解压权重(将其权重转储文件重命名为pytorch_model.bin)并将vocab文件转换为新的文件夹模型。 在experiments / base_model / params.json中相应地更改参数。 如果GPU的VRAM约为11 GB,我们建议将批大小保持为4,序列长度为512,间隔为6个周期。 要进行培训,请运行命令python train.py --data_dir数据/任务1 / --bert_model_dir模型/ --model_dir实验/ base_model要进行评估,请运行命令python评估.py --data_dir数据/任务1 / --bert_model_dir模型/ --model_dir实验/ base