当前位置:主页
> 资源下载 > 16 > KeyPhraseGeneration-BERT:克隆此存储库,然后从scibert repo安装pytorch-pretrained-BERT,解压权重(将其权重转储文件重命名为pytorch_model.bin)并将vocab文件转换为新的文件夹模型。 相应地在experimentsbase_modelparams.json中更改参数。 如果GPU的VRAM约为11 GB,我们建议将批大小保持为4,序列长度为512,间隔为6个周期。 要进行培训,请运行命令python train.py --data_下载
-
KeyPhraseGeneration-BERT:克隆此存储库,然后从scibert repo安装pytorch-pretrained-BERT,解压权重(将其权重转储文件重命名为pytorch_model.bin)并将vocab文件转换为新的文件夹模型。 相应地在experimentsbase_modelparams.json中更改参数。 如果GPU的VRAM约为11 GB,我们建议将批大小保持为4,序列长度为512,间隔为6个周期。 要进行培训,请运行命令python train.py --data_下载
资源介绍
KeyPhraseGeneration-BERT
克隆此存储库,然后从scibert repo安装pytorch-pretrained-BERT,解压权重(将其权重转储文件重命名为pytorch_model.bin)并将vocab文件转换为新的文件夹模型。 在experiments / base_model / params.json中相应地更改参数。 如果GPU的VRAM约为11 GB,我们建议将批大小保持为4,序列长度为512,间隔为6个周期。 要进行培训,请运行命令python train.py --data_dir数据/任务1 / --bert_model_dir模型/ --model_dir实验/ base_model要进行评估,请运行命令python评估.py --data_dir数据/任务1 / --bert_model_dir模型/ --model_dir实验/ base
- 上一篇: Intel FB-Patcher 1.7.1
- 下一篇: 3D城市科幻动画展示