《表1:不同算法的分类性能》

《表1:不同算法的分类性能》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于BERT的用户画像》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文研究了基于BERT预训练模型的用户画像相关问题,BERT模型对遮挡语言模型和下一个句子预测任务同时进行训练,能够更好的获取上下文信息,学习句内和句间关系。相比于传统的词向量,BERT在一定程度上能够解决一词多义问题,更好的抽取用户特征。实验表明,基于BERT预训练模型在处理用户画像上能够达到较好的效果。由于数据集中文本的内容与用户属性存在一定的偏差,数据中的噪声较大,数据存在不平衡,需要进一步提高用户画像的分类精度。