《表2 不同算法在DRIVE数据库中的对比》

《表2 不同算法在DRIVE数据库中的对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《低尺度血管检测在视网膜血管分割中的应用》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文还与其他算法在DRIVE数据库上的表现进行对比,结果展示在表2中。其中,人眼观察的结果来自于DRIVE数据库第2位专家的分割结果。文献[8]仅采用B-COSFIRE滤波器对血管进行特征提取,在不添加任何分类器的情况下,只靠阈值分割血管,效果接近人眼观察的结果;而单独地使用B-COSFIRE滤波特征,并没有考虑噪音问题,眼底图像中存在类似血管的背景噪音,单纯的阈值分割很难区别噪音,因此在文献[26]中,加入了RF(random forest)模型作为分类器,对包含B-COSFIRE滤波特征的5个特征对象进行训练,得到了0.960 6的分割精确度;在本文算法中,利用全卷积神经网络的原理设计了新型的LVD模型作为分类器,同样采用对血管响应较好的B-COSFIRE响应特征作为训练对象,分割精确度达到了0.969 5。而在其他方法[17,27-28]中,训练数据都未采用眼底图像的B-COSFIRE滤波特征,HED-CRF算法直接采用的是未经处理的彩色眼底图像,分割精确度仅为0.951 5;FCN和U-Net算法中都是采用了眼底图像局部的血管块,缺乏全局信息,分割精确度不高,分别为0.953 3和0.953 1。对比发现,B-COSFIRE滤波响应特征更能让模型学习到血管的特征,并且对整个眼底图像的特征学习要比基于局部血管块的特征学习更容易获取到全局特征,分割效果更好。为了比较分类器的好坏,通过AUC指标进行分析,其中采用全卷积神经网络模型的AUC指标都超过了0.970 0,本文算法更是达到了0.978 2,而采用RF模型仅有0.963 2,这是因为神经网络的学习能力要比传统的机器学习强,更深层次的网络更能表达图像的语义特征。并且本文采用的LVD模型区别于文献[26-28]的全卷积网络模型,没有采用3×3的卷积核,全部采用非对称的小卷积核,模型的表现比U-Net模型还高。在DRVIE数据库测试,Se、Sp、Acc、AUC分别达到了0.819 2、0.984 2、0.969 5、0.978 2,达到了先进水平。