《表1:不同算法的分类性能》
本文研究了基于BERT预训练模型的用户画像相关问题,BERT模型对遮挡语言模型和下一个句子预测任务同时进行训练,能够更好的获取上下文信息,学习句内和句间关系。相比于传统的词向量,BERT在一定程度上能够解决一词多义问题,更好的抽取用户特征。实验表明,基于BERT预训练模型在处理用户画像上能够达到较好的效果。由于数据集中文本的内容与用户属性存在一定的偏差,数据中的噪声较大,数据存在不平衡,需要进一步提高用户画像的分类精度。
图表编号 | XD00116456800 严禁用于非法目的 |
---|---|
绘制时间 | 2019.12.15 |
作者 | 翟剑锋 |
绘制单位 | 中国社会科学院大学计算机教研部 |
更多格式 | 高清、无水印(增值服务) |