正在加载图片...
1144 工程科学学报,第43卷,第9期 医生对制片完成后的异常细胞进行标注,数 了各阈值下的精确率和召回率,可更加全面的评 据标注情况如表1所示,本文将如下4类细胞定义 估模型的预测结果 为异常细胞,并在目标检测时使用二分类进行判断 (3)实验参数 本文中图像分类实验训练轮次为30轮次,采 表1图像标注情况 用RMSProp优化器,初始学习率为10,批次大小 Table 1 Image annotation 为16. Category Number 本文中目标检测实验训练轮次为50轮次,初 ASC-US 2032 始学习率为10户,采用$GD梯度下降法,热身动态 ASC-H 1156 调整学习率策略,批次大小为32 LSIL 4387 本文所有模型基于PyTorch框架2和OpenCV HSIL 1389 图像处理包Bo实现,均在装备I台Nvidia Tesla Total 8964 V100显卡的工作站上测试 3.2图像分类阶段 通过裁剪TCT图像,得到总计8702张含有真 本文选择了当前主流的多个图像分类模 实标注的TCT局部区域图像和部分不含真实标注 型框架(Resnets50,Resnetl01l],Resnet152, 的TCT局部区域图像作为数据进行图像分类模型 Densenet1211,SE-Resnext501321,SE-Resnext1011321 以及目标检测模型的训练,其中训练集、验证集及 SE-Resnet501321,SE-Resnet1011321,Efficientnet-b41331, 测试集的划分比例为7:2:1 Efficientnet-b7331,Resnext50134,Resnext101341,Nas- (2)评估指标 net351,Shufflenetv20361,Inceptionv4137,Xception), 本文采用目标检测领域的常用评估指标AP502] 对局部区域是否含有细胞簇进行了分类实验,实 作为准确率进行实验评估,该评估方法综合考虑 验结果如表2所示. 表2细胞簇图像分类实验 Table 2 Cell cluster image classification experiment Model Accuracy/% True negative rate/% True positive rate/% Average time consumption/s Params/MB Memory Cost/GB Resnet50 89.01 96.09 86.93 0.017 22.51 4.12 Resnet101 89.62 89.39 91.46 0.027 42.50 7.85 SE-Resnext50 84.59 96.09 79.90 0.016 27.56 4.28 SE-Resnext101 82.50 91.62 79.90 0.033 48.96 8.05 Efficientnet-b4 75.71 98.88 57.29 0.027 19.43 5.12 Efficientnet-b7 83.41 98.88 68.84 0.043 66.52 25.32 Resnext50 32X4d 8825 94.41 88.44 0.012 25.03 4.29 Resnext101_32X4d 87.20 89.94 91.46 0.025 44.18 8.03 SE-Resnet101 82.50 92.18 79.40 0.023 49.33 7.63 SE-Resnet50 85.11 88.83 86.43 0.011 28.09 3.9 Nasnet 85.37 99.44 72.36 0.038 88.75 24.04 Shufflenetv2 81.46 0 99.50 0.010 7.39 0.60 Inceptionv4 81.72 99.44 0 0.024 42.68 12.31 Xception 78.85 99.44 99.50 0.015 22.86 8.42 Densenet121 80.58 94.41 56.28 0.021 7.98 2.88 由表2可知,Resnet系列模型准确率明显高于 数多,有利于精准学习病理图像的特征.其它当前 其它模型,其次是Resnext系列模型,再次是其它当 主流模型的准确率低于Resnetl0l,其原因可能是有 前主流模型.Resnet系列模型中Resnet101的准确 些模型参数过多,模型结构过于复杂,在训练过程中 率最高,相比较Resnet50,其模型结构复杂,模型参 产生了过拟合现象,也可能因为有些模型是专为特医生对制片完成后的异常细胞进行标注,数 据标注情况如表 1 所示,本文将如下 4 类细胞定义 为异常细胞,并在目标检测时使用二分类进行判断. 表 1 图像标注情况 Table 1   Image annotation Category Number ASC-US 2032 ASC-H 1156 LSIL 4387 HSIL 1389 Total 8964 通过裁剪 TCT 图像,得到总计 8702 张含有真 实标注的 TCT 局部区域图像和部分不含真实标注 的 TCT 局部区域图像作为数据进行图像分类模型 以及目标检测模型的训练,其中训练集、验证集及 测试集的划分比例为 7∶2∶1. (2)评估指标. 本文采用目标检测领域的常用评估指标 AP50[28] 作为准确率进行实验评估,该评估方法综合考虑 了各阈值下的精确率和召回率,可更加全面的评 估模型的预测结果. (3)实验参数. 本文中图像分类实验训练轮次为 30 轮次,采 用 RMSProp 优化器,初始学习率为 10−6,批次大小 为 16. 本文中目标检测实验训练轮次为 50 轮次,初 始学习率为 10−2,采用 SGD 梯度下降法,热身动态 调整学习率策略,批次大小为 32. 本文所有模型基于 PyTorch 框架[29] 和 OpenCV 图像处理包 [30] 实现 ,均在装 备 1 台 Nvidia Tesla V100 显卡的工作站上测试. 3.2    图像分类阶段 本文选择了当前主流的多个图像分类模 型 框 架 ( Resnet50[15] ,  Resnet101[15] ,  Resnet152[15] , Densenet121[31] , SE-Resnext50[32] , SE-Resnext101[32] , SE-Resnet50[32] , SE-Resnet101[32] , Efficientnet-b4[33] , Efficientnet-b7[33] , Resnext50[34] , Resnext101[34] , Nas￾net[35] , Shufflenetv2[36] , Inceptionv4[37] , Xception[38] ) , 对局部区域是否含有细胞簇进行了分类实验,实 验结果如表 2 所示. 表 2 细胞簇图像分类实验 Table 2   Cell cluster image classification experiment Model Accuracy/% True negative rate/% True positive rate/% Average time consumption/s Params/MB Memory Cost/GB Resnet50 89.01 96.09 86.93 0.017 22.51 4.12 Resnet101 89.62 89.39 91.46 0.027 42.50 7.85 SE-Resnext50 84.59 96.09 79.90 0.016 27.56 4.28 SE-Resnext101 82.50 91.62 79.90 0.033 48.96 8.05 Efficientnet-b4 75.71 98.88 57.29 0.027 19.43 5.12 Efficientnet-b7 83.41 98.88 68.84 0.043 66.52 25.32 Resnext50_32X4d 88.25 94.41 88.44 0.012 25.03 4.29 Resnext101_32X4d 87.20 89.94 91.46 0.025 44.18 8.03 SE-Resnet101 82.50 92.18 79.40 0.023 49.33 7.63 SE-Resnet50 85.11 88.83 86.43 0.011 28.09 3.9 Nasnet 85.37 99.44 72.36 0.038 88.75 24.04 Shufflenetv2 81.46 0 99.50 0.010 7.39 0.60 Inceptionv4 81.72 99.44 0 0.024 42.68 12.31 Xception 78.85 99.44 99.50 0.015 22.86 8.42 Densenet121 80.58 94.41 56.28 0.021 7.98 2.88 由表 2 可知,Resnet 系列模型准确率明显高于 其它模型,其次是 Resnext 系列模型,再次是其它当 前主流模型. Resnet 系列模型中 Resnet101 的准确 率最高,相比较 Resnet50,其模型结构复杂,模型参 数多,有利于精准学习病理图像的特征. 其它当前 主流模型的准确率低于 Resnet101,其原因可能是有 些模型参数过多,模型结构过于复杂,在训练过程中 产生了过拟合现象,也可能因为有些模型是专为特 · 1144 · 工程科学学报,第 43 卷,第 9 期
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有