正在加载图片...
·1248 工程科学学报,第43卷,第9期 的值km,表示结构特征f的融合系数,融合后 的RGB三通道彩色眼底图像;STAREIS]数据集 的新特征fes计算公式如下: 包含20张分辨率为700×605的RGB三通道图像; fves'=aofs+(0-a)ofves (5) CHASEDB1S☑数据集包含28张分辨率为999× 960的RGB三通道图像,从14个孩童的左右眼拍 Attention gate (a) 照采集 C×H×WW11 ReLU Sigmoid DRIVE数据集提供了各包含20张图片的训 g:1×1 练集和测试集,本文选取了训练集中的第1张图 Cx【× CxHx甲:1x1 片作为验证,其余19张图片用作训练.对于STARE 数据集,本文采用了Yan等B)、Wang等使用的 留一法划分方式,1张图片用作测试,其余19张用 Self-adaptive feature fusion block (b) 于训练,20张图片轮流作为测试图片进行实验,计 ReLU Sigmoid 算20次实验中各项指标的平均值作为结果.对于 CxH×W CxH×:1x1 CHASEDBI数据集,实验采用了和Yan等B7、Wang 等9,、Li等、Wang等4s相同的划分方式,前20张 图4自适应特征融合模块和注意力门控的对比.(a)深层特征∫过滤 用作训练,其余8张用于测试.3个数据集中的训 浅层特征f:(b)包含结构信息的骨架特征f和血管特征∫融合 练图片分别采用旋转和翻转的方式进行扩充,缓 Fig.4 Comparison of the self-adaptive feature fusion block and 解由于训练数据太少导致的模型过拟合现象.由 attention gating:(a)deeper features f filter shallower features fi;(b) 于CHASEDBI数据集的图片分辨率较高,这个数 vessel features fves fuse skeleton features fs containing structural information 据集中的图片切片为720×720的图像块. 式中,O是维度为C×H×W的全1矩阵,o表示哈达 3.3评价方法 玛积.融合系数矩阵通过两种特征的线性和非线 本文使用了FI值、敏感性(Se)、准确率(Acc)、 性变换得到,变换参数支持反向传播和梯度下降 特征曲线ROC下的面积(AUC)这4个常用的指 的优化策略.融合矩阵α的计算公式为: 标对提出的方法定量评估.从二值分割图和标注 a=2((I(W:fsi+Wfves1+b1))+b2)(6) 图中统计出被正确分类为正类(TP)、被正确分类 式中,人1 ERCXHXW和fesl∈RCxHxW分别由f和人es 为负类(TN)、被误分类为正类(FP)、被误分类为 负类(FN)这四类像素的数目并进而计算出指标值, 经过线性变换后得到,W∈RCxC、W,∈RCxC和 如下所示: p∈RCxC分别为线性变换矩阵,通过1×1的卷积核 TP 实现;b1∈RCxHxW和b2∈RCxHxW为偏移量,G1和 Se=TP+F×100% (7) σ2分别为ReLU和sigmoid激活函数, TP+TN Acc= TP+TN+FP+FN X 100% (8) 3实验与分析 TP Pre= 3.1实验设计 TP+FP X100% (9) 为了说明该方法的有效性,本文在3个公开的 F1=2 Pre.Se ×100% Pre+Se (10) 视网膜血管分割数据集进行了实验,与近3年最 新的方法山,4306网进行比较.每组实验的结果 特征曲线从使用不同阈值得到的二值化分割 为模型10次训练结果的平均值.本文提出的方法 图计算出的敏感性和假正率(FP/FP+TN×100%) 采用Python语言编程,基于PyTorch框架实现,模 做出,计算此曲线与坐标轴围成的面积得到 型在配备16G内存和英伟达GTX1080Ti显卡的 AUC值. 计算机上运行.网络训练轮次总数设置为20,优化 3.4实验结果 算法使用Adam,使用0.001作为学习率.基于图的 本文提出的方法在3个数据集上与其他方法 结构平滑正则损失的局部区域设置为边长为 的对比结果如表1所示,在所有指标上基本达到 30个像素的正方形,权重系数y设置为0.000001. 了领先.方法在3个数据集上的F1值分别为 3.2数据介绍 83.1%、85.8%和82.0%,在所有对比方法中达到了 DRIVEIS0]数据集包含40张分辨率为565×584 最高:敏感值分别为83.7%、86.4%和84.5%.同样α c (h,w) f c s(h,w) fves ′ 的值 表示结构特征 的融合系数,融合后 的新特征 计算公式如下: fves ′ = α◦ fs +(O−α) ◦ fves (5) Attention gate C × H × W C × H × W C × H × W C × H × W C × H × W C × H × W fg f1 fs ReLU ReLU Sigmoid Sigmoid Self-adaptive feature fusion block Wg : 1×1 φ: 1×1 φ: 1×1 WS : 1×1 WV: 1×1 W1 : 1×1 α α α 1−α f ′ves fves f ′1 (a) (b) fg fl fs fves 图 4    自适应特征融合模块和注意力门控的对比. (a)深层特征 过滤 浅层特征 ;(b)包含结构信息的骨架特征 和血管特征 融合 fg fl fves fs Fig.4     Comparison  of  the  self-adaptive  feature  fusion  block  and attention  gating:  (a)  deeper  features filter  shallower  features ;  (b) vessel  features fuse  skeleton  features containing  structural information O C × H × W ,◦ α 式中, 是维度为 的全 1 矩阵 表示哈达 玛积. 融合系数矩阵通过两种特征的线性和非线 性变换得到,变换参数支持反向传播和梯度下降 的优化策略. 融合矩阵 的计算公式为: α = σ2(φ T (σ1(WT s fs1 +WT v fves1 + b1))+ b2) (6) fs1 ∈ R C×H×W fves1 ∈ R C×H×W fs fves Ws ∈ R C×C Wv ∈ R C×C φ ∈ R C×C 1×1 b1 ∈ R C×H×W b2 ∈ R C×H×W σ1 σ2 ReLU sigmoid 式中, 和 分别由 和 经 过 线 性 变 换 后 得 到 , 、 和 分别为线性变换矩阵,通过 的卷积核 实 现 ; 和 为 偏 移 量 , 和 分别为 和 激活函数. 3    实验与分析 3.1    实验设计 γ 为了说明该方法的有效性,本文在 3 个公开的 视网膜血管分割数据集进行了实验,与近 3 年最 新的方法[11, 34, 37, 40, 46−49] 进行比较. 每组实验的结果 为模型 10 次训练结果的平均值. 本文提出的方法 采用 Python 语言编程,基于 PyTorch 框架实现,模 型在配备 16 G 内存和英伟达 GTX1080Ti 显卡的 计算机上运行. 网络训练轮次总数设置为 20,优化 算法使用 Adam,使用 0.001 作为学习率. 基于图的 结构平滑正则损失的局部区域设置为边长 为 30 个像素的正方形,权重系数 设置为 0.000001. 3.2    数据介绍 DRIVE[50] 数据集包含 40 张分辨率为 565×584 的 RGB 三通道彩色眼底图像; STARE[51] 数据集 包含 20 张分辨率为 700×605 的 RGB 三通道图像; CHASEDB1[52] 数 据 集 包 含 28 张 分 辨 率 为 999× 960 的 RGB 三通道图像,从 14 个孩童的左右眼拍 照采集. DRIVE 数据集提供了各包含 20 张图片的训 练集和测试集,本文选取了训练集中的第 1 张图 片作为验证,其余 19 张图片用作训练. 对于 STARE 数据集,本文采用了 Yan 等[37]、Wang 等[49] 使用的 留一法划分方式,1 张图片用作测试,其余 19 张用 于训练,20 张图片轮流作为测试图片进行实验,计 算 20 次实验中各项指标的平均值作为结果. 对于 CHASEDB1 数据集,实验采用了和 Yan 等[37]、Wang 等[49]、Li 等[46]、Wang 等[48] 相同的划分方式,前 20 张 用作训练,其余 8 张用于测试. 3 个数据集中的训 练图片分别采用旋转和翻转的方式进行扩充,缓 解由于训练数据太少导致的模型过拟合现象. 由 于 CHASEDB1 数据集的图片分辨率较高,这个数 据集中的图片切片为 720×720 的图像块. 3.3    评价方法 本文使用了 F1 值、敏感性 (Se)、准确率 (Acc)、 特征曲线 ROC 下的面积 (AUC) 这 4 个常用的指 标对提出的方法定量评估. 从二值分割图和标注 图中统计出被正确分类为正类 (TP)、被正确分类 为负类 (TN)、被误分类为正类 (FP)、被误分类为 负类 (FN) 这四类像素的数目并进而计算出指标值, 如下所示: Se = TP TP+FN ×100% (7) Acc = TP+TN TP+TN+FP+FN ×100% (8) Pre = TP TP+FP ×100% (9) F1 = 2 Pre ·Se Pre+Se ×100% (10) FP/(FP+TN)×100% 特征曲线从使用不同阈值得到的二值化分割 图计算出的敏感性和假正率 ( ) 做 出 , 计 算 此 曲 线 与 坐 标 轴 围 成 的 面 积 得 到 AUC 值. 3.4    实验结果 本文提出的方法在 3 个数据集上与其他方法 的对比结果如表 1 所示,在所有指标上基本达到 了领先 . 方 法 在 3 个数据集上 的 F1 值分别 为 83.1%、85.8% 和 82.0%,在所有对比方法中达到了 最高;敏感值分别为 83.7%、86.4% 和 84.5%,同样 · 1248 · 工程科学学报,第 43 卷,第 9 期
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有