《表5 样本量为16 000时BERT-Re-Pretraining-Med-Chi模型的实验结果》

《表5 样本量为16 000时BERT-Re-Pretraining-Med-Chi模型的实验结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于BERT模型的中文医学文献分类研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

首先使用医学文本预训练语料进行预训练过程,预训练的文本最大长度设置为400,持续200 000个步骤,其余参数保持不变。每次预训练需31个小时完成。再进行微调过程的训练,同样经过参数的调整,设置微调参数如下:批训练大小(train_batch_size)为8;批预测大小(predict_batch_size)为8。样本量为16 000时,实验结果如表5所示。