集成相异性准则与熵率超像素的图像分割模型

顾安琪,单昕昕,文颖*

1.华东师范大学计算机科学与技术学院,上海 200062;

2.华东师范大学通信与电子工程学院,上海 200241

随着医学成像技术的不断发展,计算机断层扫描(computed tomography, CT)、正电子发射断层扫描(positron emission tomography, PET)以及磁共振成像(magnetic resonance imaging, MRI)等成像技术都为临床医生和放射科医生评估脑部病变区域提供重要的临床信息。相较于CT和PET图像,MR图像多参数、多序列、多方位的成像方式和组织分辨率高的特点,为疾病诊断和脑部肿瘤分割提供了重要的参考信息。在对于脑部肿瘤的具体分割上,可以分割出不同的肿瘤组织,如:水肿、坏死和囊肿区域等。正常的脑组织分割,可以分为如灰质(gray matter, GM)、白质(white matter, WM)和脑脊液(cerebrospinal fluid, CSF)3类。

医学图像的分割方法可以分为无监督分割方法和有监督分割方法,无监督分割方法包括:基于聚类的分割方法、基于阈值化的分割方法和马尔可夫随机场建模等。其中,基于聚类的分割方法如K-means (MacQueen,1967)、模糊C-means(fuzzy C-means clustering, FCM)(Dunn,1973)对某些完整和高对比度的脑图像显示出较好的分割精度。然而,FCM非常耗时,而K-means对初始化非常敏感。此外,强度和图像噪声的不均匀也影响着MR脑图像分割的鲁棒性和泛化性(张石 等,2009)。基于阈值化的分割方法,如迭代法选择阈值(Xu等,2011)、双峰法选择阈值(拜颖乾,2014)等方法,多数情况下需要对每一幅图像进行人工选择阈值,再进行分割,因此不具有泛化能力。基于马尔可夫随机场(Markov random field, MRF)分割模型,在图像分割领域里具有广泛应用,可以运用于不同类别分割的建模(Pham等,2000)。

随着计算能力的提升和对分割精度的更高要求,基于卷积神经网络(convolutional neural networks, CNNs)的方法,在近10年来的医学图像分析中得到了迅速发展(Litjens等,2017)。CNNs最初在图像分割中的直观应用是一个像素级的分类任务,区域卷积神经网络(region-based CNN, R-CNN)是通过滑动窗口的方式对每个像素进行分类(Girshick等,2014)。为了改进烦琐和记忆密集的R-CNN方法,在CNN基础上,Long等人(2015)提出了全卷积神经网络(fully convolutional network, FCN),用于完成语义分割的任务。与CNN不同的是,FCN可以接受任意大小的输入图像,通过反卷积层进行上采样实现有效的图像分割。随后提出的空洞卷积(Yu 和 Koltun,2016)因其具有可以不降低空间分辨率的优势,也已得到广泛应用。继FCNs之后,Ronneberger 等人(2015)提出了用于生物医学图像分割的U-Net,是当前各种医学图像分割任务的基线网络。U-Net在编码部分利用CNN网络提取特征,解码部分通过反卷积和特征映射拼接实现特征融合,在医学图像分割领域取得了较为不错的分割效果(周涛 等,2021)。SegNet(Badrinarayanan等,2017)根据高分辨率映射得到的最大池化索引,采用去耦合和卷积的方法对特征映射进行扩展。这些模型获得了显著的分割精度,且具有图像强度不均匀的稳定性和鲁棒性,已成功应用于医学图像分割。然而,图像边界区域的分割精度仍然较低,且图像分割任务的优化问题还需进一步研究。

递归神经网络(recurrent neural networks, RNN),特别是长短期记忆网络(long short-term memory, LSTM)(Hochreiter和Schmidhuber,1997)、网络结构的存储门和遗忘门设计,使其适合处理序列数据。在语义对象解析任务上,基于LSTM的模型(Liang等,2016a,b)在4个数据集上都取得了优秀的结果。Liu等人(2018)进一步将超像素与深度学习相结合来处理图像分割。随着多模态成像技术的蓬勃发展,为许多目标(肿瘤、器官或组织)提供不同模态的信息,进一步提升医学图像分割精度。目前一些学者提出的多模态分割算法(Wang等,2014;
Tseng等,2017;
Dolz等,2019;
Li等,2019;
Zhang等,2020;
Zhang等,2021;
Chen等,2020),通过加入解剖约束或者简单地将不同模态的图像依次输入相同的网络来获得分割结果,这不利于处理组织对比度不足的问题,也没有充分考虑多模态互补信息。Xie和Wen(2019)提出了一种多模态邻接约束的分割模型(LSTM method with multi-modality and adjacency constraint, LSTM-MA),它将多模态互补信息和LSTM网络结合起来,取得了较为不错的图像分割结果。

医学图像分割中仍然有许多问题需要解决。1)层次特征的融合。对于医学图像,从深层提取的语义信息和从浅层提取的空间信息都非常重要,这就要求所设计的网络必须具有较强的解码能力,以便进行分层特征融合和空间恢复。当前一些分割方法采用的融合策略,如连接、相加和卷积等都十分简单,不足以有效地融合不同层次和不同模态的特征。2)多模态信息的利用。医学图像往往包含从不同设备获得的多模态扫描图像,而不同模态能提供组织的补充信息。因此,充分利用来自不同模态的图像信息将有利于处理组织对比度不足的问题,提高分割精度。3)网络设计的鲁棒性。在医学图像分割中,很多模型由于训练样本不足,受到图像噪声和强度不均匀的干扰,容易出现过拟合的问题,这就要求网络设计具有鲁棒性。

为了克服上述问题,本文提出了一种集成相异性准则与熵率超像素的图像分割模型。本文贡献具体如下:

1)提出一种新的特征向量提取方法,采用超像素分割方法对多模态图像进行预分割,提出一个模态融合算法将超像素块进行逐步合并,每一个超像素块都是无向图的一个结点,利用每个结点的灰度值来提取特征向量。

2)提出一种改进的特征序列构建方法,通过相异性准则筛选邻居结点构造特征序列,再将特征序列作为BiLSTM(bi-directional LSTM)模型的输入进行特征序列分类,形成最终的分割结果。

3)在BrainWeb(Cocosco等,1997)、MRBrainS(Mendrik等,2015)和BraTS2017(Bakas等,2017)3个数据集上与主流较优的算法进行对比实验,结果表明本文提出的分割网络在图像分割应用中,提高了分割精度,面对噪声具有鲁棒性。

本文提出的集成相异性准则与熵率超像素的图像分割模型,其结构如图1所示。本文方法分为以下3个步骤。1)利用熵率超像素分割方法ERS(entropy rate super-pixel)对每种模态进行超像素分割,然后提出了一种新的融合方法将获得的超像素图像进行融合;
2)利用多模态超像素信息生成具有不同邻接结点的特征序列,每个特征序列包含切片的超像素的几个空间相关的特征向量;
3)将每个特征序列输入到BiLSTM中,通过全连接层和softmax层得到其最终的分类,形成最终的分割图像。

图1 集成相异性准则与多模态熵率超素MR脑图像分割流程Fig.1 Integrated dissimilarity criterion and multi-modal entropy rate superpixel MR brain image segmentation pipeline

1.1 模态融合

采用熵率超像素分割算法(Liu等,2011)对每一种模态图像进行超像素分割。熵率超像素算法基于图论的思想,采用贪心策略进行求解。通过迭代最大化一种图上随机游走熵率和平衡项相结合的目标函数,直到最终的目标数目达到预先输入的超像素数目才停止,得到最终的分割结果。其中,通过熵率有利于形成紧凑、均匀的超像素区域,平衡项有利于降低不平衡的超像素个数,使超像素分割区域形状和尺寸上都能规则类似。

在得到每一种模态的超像素图像后,按照Xie和Wen(2019)的方法设定特定的阈值T来删除其他与分割无关的背景区域(Al-Dmour和 Al-Ani,2018),如果超像素块中像素点的平均值小于阈值T,则这个超像素块就视为背景区域。设定阈值来删除无关背景区域,这样有助于减少BiLSTM网络的待训练序列的数量,提高其分类效率。

在医学图像中,因成像机理不同,多模态数据能从多种层面提供信息。因此,本文将3种模态的图像进行融合,以获得更有利于组织边界分割的特征。本文将不同模态的图像进行融合,把不同模态中共性的区域融成一块,共性不大的区域独立成块,单独进行处理,这样,对于组织区域,不但保证了共性区域分割的准确,也使得组织区域的边界能够得到更精细的划分,从而改变整体的分割精度。此外,由于不同模态图像中,非边界区域的相似性极高,这些区域融合起来较为一致;
而边界区域的相似性不高,不能很好地融合,因此在进行融合操作后,对边界区域上的像素点着重加以研究,以此来提高边界划分的精细度。

如图2所示,为了便于描述,以边界超像素分布为例,对边界上的像素点进行分析,将得到的不同模态的超像素边界分别用简易的九宫格方式来表示,以BrainWeb数据集为例,图2(a)—(c)分别表示T1、T2、PD这3种模态超像素,其分割目标类别数为4,所以分别由4类超像素块组成,用不同的颜色表示,每个超像素块又由若干像素点组成,图2进行了简化表示,每一个格子只代表一个像素点。

图2 模态融合阶段Fig.2 Modal fusion phase((a) T1 superpixel; (b) T2 superpixel; (c) PD superpixel; (d) fused superpixel; (e) renumbered superpixel)

1)首先分别对T1、T2、PD这3种模态的超像素块进行编号,图中的数字即为编号数。初始状态下每个模态的超像素块不是完全一样的,本文首先将3种模态的超像素进行融合,具体来说,就是把3种模态中相同位置、相同编号的超像素块融成1块,编号不同的超像素块独立成新的块。

2)图2(d)表示融合后的超像素,它将图2(a)—(c)中相同位置且相同编号的像素点进行融合,继承之前的颜色来表示融合后的像素点。

3)融合后,为了区分不同的超像素块,本文对相同位置且不同编号的像素点单独处理,统一用一种新的颜色来表示这样的像素点。每个超像素块进行重新编号,不同的编号代表不同的超像素块,如图2(e)所示:(1)图2(d)中编号为3的像素点在3个模态中对应位置编号都为1,说明这3个像素点是可以重合并且进行融合的;
(2)图2(d)中编号为4的像素点,其在3个模态中对应位置编号不相同,说明这3个像素点不能重合,因此不进行融合操作;
(3)编号为6的两个像素点在3个模态中编号都为2,说明在3种模态对应像素点融合基础上,这两个编号为6的像素点还可以进一步融合为一个新的超像素块,这不仅提高了边界划分的精确度还进一步加快了像素点的分类速度;
(4)图2(d)中还出现一种问题,即编号为10的两个像素点虽然编号相同,但在3种模态中对应位置各自的编号并不相同,所以这两个编号为10的像素点不应该被融合,只能各自成独立的超像素块。为了区分这种情况,本文通过设置3种模态的超参数来解决这个问题,具体过程可以表示为

p=αp1+βp2+γp3

(1)

式中,p表示图2(d)即融合后的超像素,p1表示 T1模态的超像素,p2表示T2模态的超像素,p3表示PD模态的超像素,α,β,γ表示各个模态的超参数,通过设置不同的参数值来保证3种模态融合时的独立性。

在融合后,对融合后超像素块重新进行编号,图2(e)为对图2(d)重新编号后的融合超像素,共由8块超像素块组成。后续处理按照融合后的超像素块处理,可以看出,在边界上的超像素块因融合后可能成为单独的一块而重新定义作为网络训练的输入,使得边界分割更为精准。

1.2 无向图的构建

本文将融合后的超像素图视为一个无向图G=(V,E),如图3所示,无向图中的每一个结点都对应一个超像素块,其中V表示无向图中的所有结点vi的集合,每一个结点vi的邻接结点用vj表示,E表示每两个相关结点间的边ei,j的集合。因此对于每一个结点vi,利用每个结点的灰度值来提取特征向量,构建一个特征序列作为 BiLSTM网络的输入,具体为

图3 特征序列构建Fig.3 Feature sequence construction

Mi={mi,1,mi,2,…,mi,Ni},mi∈Rd×Ni

1.3 特征序列的构建

在构建无向图G后,本文对每个结点vj构建特征序列。首先对每个结点采取平均池化操作,分别计算该结点在3种模态对应位置的灰度平均值,依次存入到3维特征向量mi,1中;
同时,对结点vi的周围邻接结点采取最大池化操作,分别计算周围邻接节点在3种模态对应位置的最大灰度值,依次存入3维特征向量mi,Ni中,这样对于每个结点vi都能构建一个特征序列Mi={mi,1,mi,2,…,mi,Ni},mi∈Rd×Ni。然而,一个结点vi有多个邻接结点vj,但并不是每个邻接结点vj内的信息都有利于后续的分类。因此,本文参考基于测量两个区域边界上像素之间的差异(Peng等,2011)这一思想,设定阈值来筛选更有价值的邻接结点。每一条边ei,j都有一个相关权重P去测量两个结点间的相异性,测量的相异性作为连接它们的最小权边,P越小,证明两结点相关性越大。

相异性权重P定义为

(2)

式中,N(vi)和N(vj)分别表示超像素vi和vj中所含像素的个数,Vi和Vj分别表示超像素vi和vj在3种模态图像的像素灰度平均值向量。当结点vi和vj满足小于设定的阈值时,两个结点成为互相候选的邻接结点。

1.4 基于BiLSTM的特征序列分类

由于需要去除结点vi的冗余邻接结点来构建有效特征序列,这导致每个结点vi的邻接结点的数量不一致,因此对于每一个结点vi的特征序列Mi长度都不相同,而LSTM的出现恰好可以处理长度变化的序列数据。LSTM是一种特殊的RNN模型,通过精妙的门控制将短时记忆与长时记忆结合起来,并且一定程度地解决了梯度消失的问题。BiLSTM是LSTM的一个变体,它包含前向和后向LSTM。因此本文通过将生成的节点vi的特征序列Mi输入 BiLSTM单元来训练分类模型。在本文中LSTM的第t层用来确定每个结点vi的当前状态,其中包括每个结点的隐藏状态hi,t∈Rd和单元状态ci,t∈Rd。每个节点都受其前t-1层状态和相邻结点的状态的影响,以便进行传播整个图像的信息。LSTM具有3个门,遗忘门gf、输入门gi和输出门go,3个门共同控制单元状态ci,t,其中w为权重矩阵,b为偏置项,⊙表示点乘运算,激活函数为tanh和σ。

因此,在BiLSTM网络的第t层的当前状态mi,t处理规则如下:

1)遗忘门gf

gf=σ(wffmi,t+whfhi,t-1+bf)

(3)

2)输入门gi

gi=σ(wfimi,t+whihi,t-1+bi)

(4)

gg=tanh(wfgmi,t+whfhi,t-1+bg)

(5)

3)输出门go

go=σ(wfomi,t+whohi,t-1+bo)

(6)

ci,t=gf⊙ci,t-1+gi⊙gg

(7)

hi,t=go⊙tanh(ci,t)

(8)

最终,在BiLSTM的最后一层加入全连接层和softmax层,输出预测的各个类别概率。通过将所有结点的分类结果对应到原图中超像素块所在的区域,用分类得到的类别编号作为像素点的值,得到最终的分割图像。

图4 数据集样本示例Fig.4 The samples of dataset

评估本文方法在BrainWeb、MRBrainS和BraTS2017共3个数据集上的性能。样本示例的可视化如图4所示,每行代表不同的模态图像,将这3种数据集都按照6 ∶4的比例划分出训练集和测试集。BrainWeb数据集是一个基于大脑解剖结构的仿真数据集,其中包含T1、T2、PD这3种模态的MR图像。本文使用399幅图像,其中239幅图像用于训练,160幅图像用于测试。MRBrainS数据集包含了实际环境中大脑的MR图像,其中包含T1,T1IR和FLAIR(fluid attenuated inversion recovery)3种模态的MR图像,选择104幅图像用于训练,70幅用于测试。BraTS2017数据集来自MICCAI BraTS2017脑肿瘤分割挑战赛,其中包括T1,T1CE,T2和FLAIR 共4种模态的MR图像,选取429幅用于训练,286幅用于测试。其中在BrainWeb和MRBrainS数据集上主要将分割目标划分为4类:白质、灰质、脑脊液和背景,在BraTS2017 数据集上将分割目标划分为整个肿瘤(whole tumor, WT)、增强肿瘤(enhance tumor, ET)、肿瘤中心(tumor core, TC)和背景这4类。

各模态超参数α,β,γ是自定义的,数值大小可以任取不同的数字,但它们的量级必须具有区分度,从而保证3个模态在融合时的独立性。在本文中设置为α=1,β=100,γ=1 000。实验所采用的定量评价指标是像素精度(pixel accuracy, PA)(Al-Dmour和Al-Ani,2018)和骰子相似系数(Dice similarity coefficient, DSC)(Hastie和Tibshirani,1996)。实验结果均是所分类别上各项指标取均值获得的。在对特征序列的分类阶段,本文算法采用BiLSTM网络进行分类,其中优化器是Adam(Kingma 和Ba,2017)。在训练过程中的参数设置上,LSTM/BiLSTM中的隐藏单元数设置为40,批大小设置为512,最大迭代轮数设置为40,损失函数选择交叉熵损失函数,以此来平衡时间效率和分割性能。首先通过消融实验验证模态融合和相异性准则的有效性;
然后对本文方法和目前较为流行的分割方法进行比较;
最后,评估了本文方法在受到噪声和偏移场干扰时的鲁棒性。

2.1 消融实验

为了验证超像素块数量对分割结果的影响,本文在BrainWeb数据集上进行了测试。如表1所示,超像素块数的增加带来了更精确细致的边界,在块数为3 000时,DSC最高,之后随着块数的进一步增加,出现冗余的超像素块,精度开始下降,并且随着块数的增加分类阶段花费时间也越来越长。因此,在接下来的实验中,为了平衡测试实验和模型性能,将超像素块数量设置为3 000。

表1 ERS超像素数量设置对分割结果的影响Table 1 The influence of the number of ERS superpixels on the segmentation results

为了验证多模态融合的有效性,分别在BrainWeb和MRBrainS两个数据集上评估了以单一模态、两种模态和3种模态超像素上的分割性能,如表2和表3所示,随着模态的不断融合,信息越来越多,分割性能有较为明显的提升。因此,在分割中,多模态图像的特征融合是有必要的。同样地,本文在BraTS2017数据集上分别选取T1,T1CE,T2和FLAIR的其中3种模态进行多模态消融实验,实验结果如表4所示。本文最终选择T1CE,T2和FLAIR共3种模态进行后续分割实验。

表2 BrainWeb数据集上多模态消融实验结果Table 2 Multi-modal ablation experiment results on the BrainWeb dataset

表3 MRBrainS数据集上多模态消融实验结果Table 3 Multi-modal ablation experiment results on the MRBrainS dataset

表4 BraTS2017数据集上多模态消融实验结果Table 4 Multi-modal ablation experiment results on the BraTS2017 dataset

为了构建更有效的特征序列,并且同步3个数据集上的参数设置,本文在BrainWeb这一个数据集上评估筛选邻接结点的性能,并且测试了相异性权重P取值的影响,如表5所示,在邻接结点的筛选上,相异性权重P=1 000时,分割效果最好。

表5 相异性权重的取值对实验结果的影响Table 5 The influence of the value of the dissimilarity weight on the experimental results

2.2 对比实验

采用7种对比方法验证本文方法的性能,其中FCN(Long等,2015)、U-Net(Ronneberger等,2015)、SegNet(Badrinarayanan等,2017)、LSTM-MA(Xie和Wen,2019)、U-Net++(Zhou等,2020)、CRDN(convolutional recurrent decoding network)(Wen等,2020)和SFNet(semantic flow network)(Li等,2020)是基于深度学习的分割网络。由于FCN需要RGB图像进行实验,而BraTS2017数据集仅包含灰度图像,因此FCN在此数据集上没有给出结果。而U-Net++、CRDN和 SFNet趋近于收敛时,其迭代轮数分别为20 000,6 000和4 200,对应的实验结果如表6所示。

表6 在BrainWeb、MRBrainS 和BraTS2017上的模型对比实验结果Table 6 Model comparison experiment results on BrainWeb, MRBrainS and BraTS2017

从表6结果可以看出,在BrainWeb数据集上,CRDN的精度略高于本文方法,然而两者相差不到0.1%;
在MRBrainS数据集上,本文方法的DSC值最高,达到了84.74%;
在BraTS2017数据集上,本文方法的精度较好,而U-Net、SegNet、U-Net++和SFNet这5种方法在除背景之外的其他类别上的预测效果并不理想。

为了进一步展现本文方法的优势,比较了迭代轮数与精度、迭代次数与损失之间的关系。如图5所示,虽然本文方法在3个数据集上的精度并不总是最高,但在迭代轮数为40时就已收敛且取得了较优的表现,这表明本文方法提取特征采用的超像素方法不必像U-Net++、CRDN和SFNet等深度神经网络需要多次迭代来学习参数,可以有效节约训练资源。图6进一步证实了本文方法的收敛速度最快。总体来看,在这3个数据集上,本文方法与其他几种方法相比都取得了较为不错的结果,以此可以说明采用多模态和邻接信息有助于提高分割精度。

图5 BrainWeb数据集上精度和训练迭代轮数的实验结果Fig.5 Experimental results of precision and training iterations on BrainWeb dataset((a) DSC; (b) PA)

图6 BrainWeb数据集上损失和训练迭代轮数的实验结果Fig.6 Experimental results of loss and training iterations on BrainWeb dataset

2.3 噪声实验

由于MR图像在实际应用环境中常被噪声所破坏,为了评估本文方法的鲁棒性,在不同噪声水平下与FCM,SVM(support vector machine),KNN(K-nearest neighbor)(Breiman等,1984)和 Decision Tree(Hastie和Tibshirani,1996)、SLIC(simple linear iterative cluster)+LSTM-MA(Xie和Wen,2019)、SLIC+BiLSTM-MA(Xie和Wen,2019)、HMRF-CG(hidden markov random field and conjugate gradient)(居敏 等,2020)等方法进行了对比测试。

首先,BrainWeb数据集提供了5种等级的瑞利噪声图像,噪声等级分别为1%,3%,5%,7%,9%。如图7所示,当噪声较小时,各个方法的PA和DSC值比较接近,当噪声逐渐增大时,本文方法逐渐显示出优势。在MRBrainS数据集上,本文添加了均值μ为0、方差σ2从1%到9%的高斯噪声。如图8所示,本文方法相较于其他方法在性能上依旧有较不错的结果。

同时,偏移场的干扰也导致了图像灰度不均匀。偏移场是由于MR机器中的磁场不均匀而产生的低频、平缓的不良信号,会导致图像模糊,丢失高频部分信息,还会使得同一个组织呈现不同的灰度值。BrainWeb数据集提供了受偏移场干扰的数据,如图9显示了在BrainWeb数据集上,4种方法的分割结果随着偏移场强度的增加产生的变化。可以看出,无论强度不均匀性(intensity non-uniformity,INU)是在20%还是40%的情况下,本文方法对于图像灰度不均匀依旧有较为可靠的鲁棒性。

图7 BrainWeb图像在瑞利噪声干扰下的实验结果Fig.7 Experimental results on BrainWeb images corrupted by Rayleigh noise((a) DSC; (b) PA)

图10显示了几种方法在BrainWeb和MRBrainS上的可视化结果。蓝色区域为背景,白色区域为白质,黄色区域为灰质,红色区域为脑脊液,可以看到U-Net上的分割效果较差,其余方法虽然视觉上的差异并不明显,但本文方法在定量性能上仍有其优势。

本文针对以往方法对医学图像自身特点的考虑不充分和对多模态特征利用的不足,提出了一种集成相异性准则与熵率超像素的图像分割模型。通过一种新的融合算法对多模态超像素进行融合,利用相异性准则构建更优的特征序列,经过双向长短期记忆网络的训练和测试得到最终的分割结果。

图8 MRBrainS图像在高斯噪声干扰下的实验结果Fig.8 Experimental results on MRBrainS images corrupted by Gaussian noise((a) DSC; (b) PA)

图9 BrainWeb图像在受到偏移场干扰下的实验结果Fig.9 Visualization experiment results of various methods on BrainWeb image segmentation

图10 各种方法在BrainWeb和MRBrainS图像上分割可视化实验结果Fig.10 Visualization experiment results of various methods on BrainWeb and MRBrainS image segmentation((a) original images; (b) U-Net; (c) SegNet; (d) LSTM-MA; (e) U-Net++; (f) SFNet; (g) CRDN; (h) ours; (i) GT)

实验结果表明,相较于目前较为主流的分割网络,本文提出的分割网络在BrainWeb、MRBrainS和BraTS2017这3个数据集上都取得了具有竞争性的分割精度,具有较好的图像强度不均匀和噪声鲁棒性;
并且在网络训练上,收敛速度最快,不需要多次迭代来学习网络参数,可以有效地节约训练资源。

本文方法也有不足之处,虽然本文采用超像素分割方法来构建无向图结点,但相较于其他一些对每个像素点构建无向图结点的分割方法,还存在一定的分割精度误差。因此,未来可以探索更强大的超像素分割算法来进一步降低误差。此外,由于所提方法主要针对于2维图像的分割领域,所以对实际应用中3维图像领域的扩展,也是未来探索的方向。

猜你喜欢 结点集上像素点 LEACH 算法应用于矿井无线通信的路由算法研究电子制作(2022年1期)2022-01-28关于短文本匹配的泛化性和迁移性的研究分析计算机研究与发展(2022年1期)2022-01-19图像二值化处理硬件加速引擎的设计合肥工业大学学报(自然科学版)(2021年11期)2021-12-10基于八数码问题的搜索算法的研究电子制作(2021年14期)2021-08-21基于局部相似性的特征匹配筛选算法现代电子技术(2021年1期)2021-01-17基于互信息的多级特征选择算法计算机应用(2020年12期)2020-12-31基于像素点筛选的舰船湍流尾迹检测算法微型电脑应用(2019年1期)2019-01-23基于canvas的前端数据加密电脑知识与技术(2018年35期)2018-02-27师如明灯,清凉温润文苑(2015年9期)2015-09-10几道导数题引发的解题思考新课程学习·中(2013年3期)2013-06-14

推荐访问:相异 分割 像素