一种图像真伪鉴别方法及其在证照识别中的应用与流程

文档序号:21603855发布日期:2020-07-24 16:59阅读:1248来源:国知局
导航: X技术> 最新专利> 计算;推算;计数设备的制造及其应用技术
一种图像真伪鉴别方法及其在证照识别中的应用与流程

本发明提供一种基于深度学习的图片真伪鉴别方法,属于数字图像处理领域。



背景技术:

随着科学技术的发展,数字图像在我们的生活中得到了广泛的应用,甚至在法庭上,图像和视频等也是很重要的证据来源。然而,数字图像在方便了用户的同时,也给了一些不法分子以可乘之机。在未经授权的情况下,不法分子对图像内容进行非法操作,如违规编辑、合成虚假图像等,从而造成篡改图像在人们社会生活中泛滥成灾。数字图像最常见的篡改方式主要有以下三种:图像拼接、图像复制粘贴、局部图像去除。如图1所示,图像拼接是指图像中添加了来源于其他图像的物体,如图1中水面上的飞鸟;图像复制粘贴则是把图像中的某个物体复制粘贴一次或多次并添加到原图像中,如图1帐篷上的花纹;局部图像去除则是移除图像本身的部分内容,如图1中被移除的白色鸭子。不法分子为了掩盖图像的篡改痕迹,还会对篡改后的图像进行高斯平滑或中值滤波等操作,使篡改区域更好的融入到整幅图像中,让人眼辨真假。数字图像的篡改是一种违法行为,不法分子甚至会利用篡改图像来影响国家政治,于是图像取证领域应运而生了。

数字图像取证的出发点是通过提取数字图像周期中留下的固有痕迹进行分析和理解数字图像的操作历史。早在十多年前,国内外学者就开始了关于这个领域的研究,传统的图像取证算法主要利用的是图像在不同域中的统计特征,例如:dct(discretecosinetransform),svd(singularvaluedecomposition),pca(principalcomponentanalysis),dwt(discretewavelettransformation)等。还有的学者通过提取图像被多次jpeg压缩后的痕迹来检测图像是否被篡改,但这个方法仅限于检测jpeg格式的图像。近年来,随着深度学习在目标检测、场景检测、语义分割等领域大放异彩,诸如深度信念网络、深度自动编码器、卷积神经网络等都证明了其在特征提取过程中的有效性。

2014年前后,国内外学者陆续提出了一些基于卷积神经网络的图像取证算法。不同于传统的图像取证算法,深度学习算法不需要手动提取特征,它将特征提取和特征学习整合到了一起,通过一个卷积神经网络架构,直接输出我们想要的结果。文献[chenj,kangx,liuy,etal.medianfilteringforensicsbasedonconvolutionalneuralnetworks[j].ieeesignalprocessingletters,2015,22(11):1849-1853.]的作者根据中值滤波的特征提出了新型中值滤波卷积核,网络由卷积层和全连接层构成,可以有效识别出经过中值滤波后的篡改图像,并且对于被多次jpeg压缩后的篡改图像也有较高的识别率。文献[amerinii,uricchiot,ballanl,etal.localizationofjpegdoublecompressionthroughmulti-domainconvolutionalneuralnetworks[c]//2017ieeeconferenceoncomputervisionandpatternrecognitionworkshops(cvprw).ieee,2017:1865-1871.]中使用卷积神经网络来检测二次jpeg压缩后的篡改图像,篡改图像有9种类别,分别采用不用的质量因子进行压缩,算法的特色是融合了图像的dct(discretecosinetransform)特征和rgb数值特征,当压缩因子为95时,模型有98%的识别准确率。文献[choihy,janghu,kimd,etal.detectingcompositeimagemanipulationbasedondeepneuralnetworks[c]//2017internationalconferenceonsystems,signalsandimageprocessing(iwssip).ieee,2017:1-5.]中使用深度学习开展了关于多种图片篡改类型的研究,通过一个卷积神经网络可以识别7种不同篡改类型的图像。遗憾的是,以上提到这些图像取证算法仅能检测出图像是否被篡改,而不能分割出图像中的篡改区域。

图像篡改区域的分割和计算机视觉领域中的实例分割或是语义分割有很多相似之处,它们都是对图像进行像素分割,但不同的是,实例分割的依据主要是图像内容,例如imagenet数据集中猫和狗的身体部位;然而对于图像篡改区域的分割,它依据的往往不是图像中的内容,而是图像中物体的边缘噪声或是图像在不同域中的统计差异。文献[bappyjh,roy-chowdhuryak,bunkj,etal.exploitingspatialstructureforlocalizingmanipulatedimageregions[c]//proceedingsoftheieeeinternationalconferenceoncomputervision.2017:4970-4979.]的作者认为篡改区域边界处存在着差异化特征(篡改后的区域边缘会更平滑一些),为了利用这种特征,该作者提出了cnn-lstm(convolutionalneuralnetwork-longshort-termmemorynetwork)的混合模型来分割图像中的篡改区域。文献[salloumr,reny,kuoccj.imagesplicinglocalizationusingamulti-taskfullyconvolutionalnetwork(mfcn)[j].journalofvisualcommunicationandimagerepresentation,2018,51:201-209.]的作者提出了多任务训练的方法,利用了篡改区域掩膜和篡改区域边界来训练网络,对输出做了边缘增强后的实验结果(f1_score)高出单任务训练7个百分点,充分地证明了篡改区域边缘特征的有效性。文献[zhoup,hanx,morariuvi,etal.learningrichfeaturesforimagemanipulationdetection[c]//proceedingsoftheieeeconferenceoncomputervisionandpatternrecognition.2018:1053-1061.]的作者提出了一个双流的fasterrcnn网络,双流指的是rgb流和noise流,rgb流的目的是从图像中提取诸如强对比度差异,非自然篡改边界等特征;noise流则利用srm(steganalysisrichmodel)滤波器来提取图像中的噪声特征,最后通过双线性池化层来融合两个流的特征。由于特征的差异性,简单的把计算机视觉领域中热门的卷积神经网络框架迁移到图像取证领域并不能取得很好的效果,这其中主要的原因是因为图像取证领域的数据集较小,而且篡改的方式也比较多,导致用来训练的样本量不足。

本发明提出了一种新的卷积神经网络框架isfd(imagesplicingforgerydetection),可以有效地检测出经过图像拼接或复制粘贴篡改后的图像。网络使用了mobilenetv2[sandlerm,howarda,zhum,etal.mobilenetv2:invertedresidualsandlinearbottlenecks[c]//proceedingsoftheieeeconferenceoncomputervisionandpatternrecognition.2018:4510-4520.]来提取图像的rgb特征,再融合通过srm(steganalysisrichmodel)滤波器提取出来的图像的噪声特征,最后输出模型预测的篡改区域掩膜。因为篡改区域边界中存在着特有的纹理和噪声,所以我们采用滑动窗口的方式从篡改图像中获得128*128大小的图像块作为网络的输入。如果网络的输入为整张图像,图像就会被拉伸和变形到统一大小,导致篡改区域的边界特征被一定程度的破坏。特征融合把深层特征经过双线性插值后和浅层特征等进行多次融合,并且融合了图像的noise特征。实验证明,融合了噪声特征后,模型分割的准确率得到了有效提升,在casiav1.0数据集中的f1_score提升了4个百分点。



技术实现要素:

本发明旨在解决现有技术存在的问题,提供一种基于深度学习的图片篡改检测模型及方法。

本发明的技术方案:

一种基于深度学习的数字图像篡改检测方法,步骤如下:

步骤一、对数据集进行阈值处理后得到训练集;

步骤二、对训练集中的篡改图像进行分块,得到128*128大小的图像块;

步骤三、对图像块进行筛选和清洗,只保留包含篡改区域边界的图像块;

步骤四、对步骤三保留的图像块进行数据增强,并归一化到[0,1];

步骤五、使用mobilenetv2来提取图像的rgb特征;

步骤六、保留图像的第2、4、7、11层的rgb特征;

步骤七、深层特征经过卷积和上采样操作后与浅层特征融合;

步骤八、使用4个srm滤波器提取图像的noise特征;

步骤九、对图像的rgb特征和noise特征进行拼接;

步骤十、使用batchnormalization对两种图像特征进行归一化;

步骤十一、经过最后的卷积操作及sigmoid激活函数后得到结果;

步骤十二、模型在训练过程中的先使用交叉熵损失函数,再使用focalloss。

所述步骤一中对数据集做了阈值处理,我们假设篡改图片为it,背景图片为ib,id为两张图片相应像素灰度值的绝对差值。公式如下:

id=‖it-ib‖

因为it是基于背景图片ib篡改而生成的,所以it和ib具有很大的相似度,除去it中的篡改区域,剩下的其他区域像素的灰度值并没有大幅度的变化,所以我们可以设置一个阈值s=8,如果像素灰度值的绝对差值来得到图像的篡改区域掩膜,如果灰度值的绝对差值大于s,则该像素点为篡改区域,否则为真实区域。公式如下:

所述步骤二中模型接受输入为128×128的图像块,图像块是通过滑动窗口采用无重叠的滑动方式从篡改图像中获得的。

所述步骤三中对图像块进行了筛选和清洗,使用滑动窗口得到的图像块并不是都包含有篡改区域边界,据统计,约有68.4%的图像块是完全在篡改区域内部或是原始区域内部的,因为这些样本并不包含篡改边界,自然也不能供我们的模型训练使用。我们使用了一个阈值来筛选满足条件的样本,只保留图像块中的篡改区域面积超过图像总面积2%的样本。

所述步骤四中对图像块做了数据增强,去除了篡改区域面积占比小于2%的样本后,我们共得到16718个篡改图像块。因为样本的数量不是很多,所以我们做其做了水平翻转来进行数据增强,最后的总样本数为33436。我们使用其中90%的数据作为训练集,剩余10%的样本作为验证集,归一化的操作则是所有rgb系数除以255。

所述步骤五中的mobilenetv2网络包括20个卷积层,我们分别采用了第2、4、7、11层的rgb特征,其中最大的rgb特征图大小为64*64*16,最小的为8*8*64,然后我们把这四层的rgb特征图送入特征融合层进行融合。

所述步骤七,对步骤六的四层图像rgb特征图的融合方式:浅层特征经过1×1和3×3的卷积后和上采样后的深层特征融合,融合的方式为对位相加,如此循环四次,得到最终的rgb特征。

所述步骤八,使用了四种srm滤波器来提取图像的noise特征,四种srm滤波器的参数如下所示:

所述步骤十,使用了batchnormalization的方法来进行归一化,batchnormalization的公式如下:

其中,y为输出的节点值,x为输入节点的值,e[x]为该行向量节点的均值,var[x]为该行向量节点的标准差,∈为防止分母为零而引入的极小量(可忽略),γ,β为待学习的参数。

所述步骤十一,使用了batchnormalization后,图像的rgb特征和noise特征被缩放到了相同的维度大小,经过最后一次卷积操作后输出的特征大小为128*128,使用sigmoid激活函数后输出模型预测的图像篡改区域掩膜;sigmoid激活函数的公式如下:

其中,s(t)为节点输出,e为自然常数,t为节点输入。

所述步骤十二,损失函数为交叉熵和focalloss,计算公式如下:

交叉熵:

focalloss:

其中,为交叉熵的节点输出,n为节点总数,为节点输出,y为对应节点的真实值(取值为1或0)。lfl为focalloss的节点输出,y为对应节点的真实值(取值为1或0),为节点输出,α和γ为比例参数,a取值为0.6,γ的取值为2.0。

本发明的有益效果:随着数字图像编辑软件的开发与应用,不法分子可以对身份证、营业执照、经营许可证等图像进行违规编辑,并造成一种以假乱真的效果。因此,图像取证的需求变得日益迫切起来,现有的模型大多只能检测出图像是否经过篡改,而不能很好地分割出篡改区域。本文提出了一种基于卷积神经网络的图像篡改检测方法,通过融合篡改图像的多种特征,可以有效地分割图像中的篡改区域。我们在多个数据集上做了实验,实验结果进一步表明了我们工作的有效性。总结起来,我们的贡献包括以下几点:(1)提出了能分割出图像篡改区域的cnn框架isfd(2)在模型中融合了图像的rgb特征和noise特征,有效提升了分割的准确率(3)在三个图像篡改检测的数据集中验证了我们工作的有效性。

附图说明

图1为图像篡改的三种方式。其中,(a-1)、(b-1)、(c-1)为原图像,(a-2)为图像拼接后的篡改图像,(b-2)为图像复制粘贴后的篡改图像,(c-2)为局部图像去除后的篡改图像,(a-3)、(b-3)、(c-3)为图像的篡改区域掩膜。

图2为isfd框架示意图。

图3为mobilenetv2的两种卷积组合。其中,(a)为输入和输出的特征图大小相同的卷积组合,(b)为输入特征图大小为输出两倍的卷积组合。

图4为图像特征的融合方法。

图5为阈值处理后的图像的篡改区域掩膜。其中,(a-1)、(b-1)、(c-1)为篡改图像,(a-2)、(b-2)、(c-2)为阈值处理后的篡改区域掩膜。

图6为isfd模型的测试结果1。其中,(a-1)、(b-1)、(c-1)、(d-1)、(e-1)、(f-1)为篡改图像块,(a-2)、(b-2)、(c-2)、(d-2)、(e-2)、(f-2)为篡改区域掩膜,(a-3)、(b-3)、(c-3)、(d-3)、(e-3)、(f-3)为isfd模型的分割结果。

图7为isfd模型的测试结果2。其中,(a)为原图像,(b)为篡改后的图像,(c)为isfd模型的分割结果。

具体实施方式

下面将结合具体实施例对本发明的技术方案进行进一步的说明。

一、cnn框架(isfd——imagesplicingforgerydetection)

isfd的框架示意图如图2所示,网络接受的输入为128×128的图像块,图像块是通过滑动窗口的方式从篡改图像中获得的。在特征提取层中,我们采用了mobilenetv2来提取rgb特征,mobilenetv2是google在2018年提出的一种卷积神经网络框架,它主要特点是模型中的参数少,网络运行的时间快。接下来,提取到的rgb特征和通过srm(steganalysisrichmodel)滤波器得到的noise特征被一起送入特征融合层,特征融合层中有两种融合方式,首先是rgb特征中的深层特征和浅层特征相融合,其次是rgb特征和noise特征的融合,融合后得到的特征图和网络接受的输入大小是一致的。训练过程种我们采用了focalloss作为损失函数来进行训练,最后输出模型预测的图像篡改区域掩膜。

二、输入层

通过对casiav2.0数据集进行筛选和清洗后,我们还对篡改图片进行了分块处理,图像的篡改区域边界中存在其特有的纹理和噪声,如果我们对篡改图像进行拉伸或缩放,篡改区域的边界特征就会有被一定程度的破坏。所以,我们采用图像分块的方法,通过使用128×128大小的滑动窗口来获得图像块,这样做有以下几点好处:1)有效地增加样本数量,原来的篡改图像仅有4465张,通过滑动窗口分块后,样本的数量扩大到了52895张;2)保留了篡改图片的原始信息,减小篡改区域边界特征的损坏;3)对网络的运行速度得到了提升,并且减小了网络运行所需要的内存。在使用滑动窗口获得图像块的过程中,我们使用了无重叠的滑动方式,假设篡改图像的大小为226×226,使用了滑动窗口后,我们可以得到4个图像块,它们对应于原图的区域分别为[1-128,1-128],[98-226,1-128],[1-128,98-226],[98-226,98-226],图像仅在边缘区域可能存在窗口重叠的情况,把图像块检测结果按序拼接后即为最终结果。

三、特征提取层

早在2017年,google就提出了一种新的cnn架构mobilenets,不同于vgg16、resnet、desnet等卷积神经网络架构,mobilenets最大的特点在于对卷积核进行了分解,有效地减少了模型中的参数。分解过程如下:假设原来为df×df×m大小的特征图经过卷积层后大小变为df×df×n,一般情况下卷积核的大小为dk×dk×m×n,则一次卷积操作需要的计算量为dk×dk×m×n×df×df;mobilenets把dk×dk×m×n大小的卷积核拆成了dk×dk×1×m和1×1×m×n大小,也相当于把卷积操作从一次拆成了两次,尽管卷积操作的次数变多了,但它的计算量只有dk×dk×m×df×df+m×n×df×df,约为一般情况下卷积操作计算量的

mobilenetv2中的卷积组合如图3所示,其中,(a)为输入和输出的特征图大小相同的卷积组合,(b)为输入特征图大小为输出两倍的卷积组合。它对mobilenets做了以下几点改进:1)使用1×1的卷积核来增加特征图的维度再用1×1和3×3大小的卷积核来降低维度(这一点和resnet正好相反,resnet是先降维再升维);2)最后的激活函数从relu变为线性激活函数(实验表明若最后的激活函数为relu时,网络的特征提取能力下降了),这两点改进使得mobilenetv2提取图像特征的能力得到了进一步的提升。

mobilenetv2的整体框架如表1所示,mobilenetv2由20个卷积层,特征提取层主要是从第二层到第十八层,考虑到网络接受的输入图像大小为128×128,所以我们放弃了最深层的特征,只提取了中间部分的图像特征。

表1mobilenetv2的网络架构

四、特征融合层

再得到了第2、4、7、11层的特征图后,我们对这四层的特征进行了融合,融合的方式如图4所示:浅层特征经过1×1和3×3的卷积后和上采样后的深层特征融合,融合的方式为对位相加,如此循环四次,得到最终的rgb特征。我们对特征融合层的有效性做了实验,实验证明,当我们不使用特征融合层,仅用深层特征上采样后输出预测结果时,网络将变得很难收敛,这很可能是因为模型在学习深层特征后会丢失了一些浅层特征所带有的位置信息。除了融合图像中的rgb特征,我们还融合了图像的noise特征,我们使用了四种srm滤波器来提取图像的noise特征,它们的参数如下:

通过srm滤波器得到noise特征后,我们把noise特征和rgb特征进行了拼接,因为这两种特征的维度大小不一致,我们使用了batchnormalization的方法来进行归一化,batchnormalization见公式(1)

其中,y为输出的节点值,x为输入节点的值,e[x]为该行向量节点的均值,var[x]为该行向量节点的标准差,∈为防止分母为零而引入的极小量(可忽略),γ,β为待学习的参数。

使用了batchnormalization后,图像的rgb特征和noise特征被缩放到了相同的维度大小,经过最后一次卷积操作后输出的特征图大小为128*128*1,使用sigmoid激活函数后输出模型预测的图像篡改区域掩膜。sigmoid激活函数的公式如下:

其中,s(t)为节点输出,e为自然常数,t为节点输入。

关于图像的noise特征是否能改善模型效果,我们也做了相关的对比实验,实验证明再融合了图像的noise特征后,isfd模型在casiav1.0数据集中的f1_score有4个百分点的提升。

五、损失函数和评价指标

损失函数在本文中我们采用的损失函数为交叉熵和focalloss,计算公式如(3),(4)所示:

其中,为交叉熵的节点输出,n为节点总数,为节点输出,y为对应节点的真实值(取值为1或0)。lfl为focalloss的节点输出,y为对应节点的真实值(取值为1或0),为节点输出,α和γ为比例参数,α取值为0.6,γ的取值为2.0。

评价指标我们的观测指标主要是f1-score值:

(1).precisionrate=tp/(tp+fp)

(2).recallrate=tp/(tp+fn)

(3).accuracy=(tp+tn)/(tp+fp+tn+fn)

(4).f1-score=2*precisionrate*recallrate/(precisionrate+recallrate)

我们将实例分为正类(positive)或负类(negative)两类,其中truepositive(tp)表示模型做出了正确的正类判定,tp的数值表示正确的正类判定个数;同理,falsepositive(fp)表示模型做出了错误的正类判定,fp的数值表示错误的正类判定个数;依次,tn的数值为正确的负类判定个数;fn的数值则为错误的负类判定个数。最后,我们通过f1-score来衡量不同算法的优劣性。

实施例1:

下面将介绍我们的模型训练过程,首先介绍对模型训练所使用的数据集casiav2.0的处理过程,再介绍训练过程中我们使用的超参数及具体步骤。

数据集的处理

深度学习在图像取证领域中的应用还不是很广泛,图像取证领域中还没有类似于imagenet那样包含几百万张图片的数据集。图像取证领域中最大的数据集是casiav2.0[dongj,wangw,tant.casiaimagetamperingdetectionevaluationdatabase[c]//2013ieeechinasummitandinternationalconferenceonsignalandinformationprocessing.ieee,2013:422-426.],这个数据集由7491张原始图片和5123张篡改图片组成,数据集中图片的拍摄场景多样,物体种类丰富。casiav2.0中的篡改图片都是通过adobephotoshopcs3软件合成的,篡改的主要方式为图像拼接和图像复制粘贴,制作者在当时并没有保存图像的篡改区域掩膜,这对于图像篡改区域的分割造成了很大的困难。幸运的是,数据集中的篡改来源图片都被编码在了篡改图片的图片名中,所以我们可以使用一种简单有效的方法来得到图像的篡改区域掩膜。首先,我们假设篡改图片为it,背景图片为ib,id为两张图片相应像素灰度值的绝对差值。如公式(5)所示:

id=‖it-ib‖(5)

因为it是基于背景图片ib篡改而生成的,所以it和ib具有很大的相似度,除去it中的篡改区域,剩下的其他区域像素的灰度值并没有大幅度的变化,所以我们可以设置一个阈值s=8(见公式6),如果像素灰度值的绝对差值来得到图像的篡改区域掩膜,如果灰度值的绝对差值大于s,则该像素点为篡改区域,否则为真实区域。

通过上述方法得到的篡改区域掩膜还存在着以下三个问题,如图5所示:1)得到的大部分篡改区域掩膜存在噪点,类似于椒盐噪声,随机分布在图像各处;2)部分图像的篡改区域没有被识别出来;3)一些篡改图像是通过图像对称的方法得到的,这部分图像不适合用来当作训练样本。

关于问题1,我们对得到的所有掩膜进行了中值滤波、膨胀腐蚀等操作,这些操作可以去除掩膜中散乱的噪点,对于无法去除的噪点,我们进行了手动纠正;关于问题2,我们通过对照原始图像和篡改图像,对没有被识别出来的篡改区域进行了纠正,并删除了篡改边界模糊的样本;关于问题3,通过图像对称得到的篡改图像并没有很明显的篡改边界,而且这种篡改方式是能被人眼轻易识别出来的,所以,我们删除了这类篡改图像。最终,经过一系列的筛选后,用来进行训练的样本数仅有4465张。

实验细节

对casiav2.0数据集做了以上处理后,我们得到了总共52895个128*128的篡改图像块,但这些图像块还需要做进一步的筛选。前面,我们提到图像中的篡改区域边界存在其特有的纹理和噪声,但使用滑动窗口得到的图像块并不是都包含有篡改区域边界,据统计,约有31.6%的图像块是完全在篡改区域内部或是原始区域内部的,因为这些样本并不包含篡改边界,自然也不能供我们的模型训练使用。我们使用了一个阈值l来筛选满足条件的样本,若图像块中的篡改区域面积超过图像总面积的2%,我们认为该样本包含篡改边界,去除了篡改区域面积占比小于2%的样本后,我们共得到16718个篡改图像块。因为样本的数量不是很多,所以我们做其做了水平翻转来进行数据增强,最后的总样本数为33436。我们使用其中90%的数据作为训练集,剩余10%的样本作为验证集。

接下来介绍训练时使用的方法,因为我们直接调用pytorch中已训练的mobilenetv2网络,所以我们设置两种不同的学习率,特征提取层的学习率设为0.01,特征融合层的学习率则为0.03,然后都按每轮训练后乘以0.95的倍率衰减。训练的总轮数设为50,每轮训练使用的样本数为128,开始训练时使用的损失函数为交叉熵,当训练到第10轮左右,损失函数改为用focalloss,学习率的大小统一设为0.001,再经过10轮的训练,损失值基本收敛,然后保存最终的模型。

实验结果

在这一节中,我们将对比我们提出的isfd模型和其他方法在图像中篡改区域的分割效果,我们的模型简称为isfd,其他的方法有:sfcn[salloumr,reny,kuoccj.imagesplicinglocalizationusingamulti-taskfullyconvolutionalnetwork(mfcn)[j].journalofvisualcommunicationandimagerepresentation,2018,51:201-209.]、adq1[linz,hej,tangx,etal.fast,automaticandfine-grainedtamperedjpegimagedetectionviadctcoefficientanalysis[j].patternrecognition,2009,42(11):2492-2501.]、adq2[bianchit,derosaa,pivaa.improveddctcoefficientanalysisforforgerylocalizationinjpegimages[c]//2011ieeeinternationalconferenceonacoustics,speechandsignalprocessing(icassp).ieee,2011:2444-2447.]、blk[liw,yuany,yun.passivedetectionofdoctoredjpegimageviablockartifactgridextraction[j].signalprocessing,2009,89(9):1821-1829.]、cfa1[ferrarap,bianchit,derosaa,etal.imageforgerylocalizationviafine-grainedanalysisofcfaartifacts[j].ieeetransactionsoninformationforensicsandsecurity,2012,7(5):1566-1577.]、cfa2[dirikae,memonn.imagetamperdetectionbasedondemosaicingartifacts[c]//200916thieeeinternationalconferenceonimageprocessing(icip).ieee,2009:1497-1500.]、dct[yes,sunq,changec.detectingdigitalimageforgeriesbymeasuringinconsistenciesofblockingartifact[c]//2007ieeeinternationalconferenceonmultimediaandexpo.ieee,2007:12-15.],分割效果的好坏根据f1-score的值来判断。我们测试使用的数据集有casia1、columbia、nist2016,这三个数据集都是在图像取证领域知名的数据集。casia1数据集总共包含1725张384×256大小的图片,其中共有925张篡改图片,图片的格式统一为.jpg,篡改的主要方式有图像变形、图像拼接、图像重采样。columbia数据集较小,只有183张原始图像和180张篡改图像,图片的大小从757×568到1022×666不等,图片的格式为.gif。nist2016数据集中的图像篡改方式有图像拼接、图像局部去除、图像伪造三种,图像的格式为.jpg,此外,制作者还对篡改区域边界做了平滑处理,使人眼不能轻易的识别出篡改区域,因此该数据集是比较具有挑战性的。以上提到的三个数据集,casia1的制作者并没有提供图像的篡改区域掩膜,我们使用前面提到的方法,通过对比背景图像和篡改图像的灰度值,使用相同的阈值s=8来得到篡改区域掩膜,但很多的篡改图像掩膜存在着噪点过多和篡改区域识别错误的问题,故舍弃了很多的样本,最终供我们测试使用的篡改图像仅有500张。columbia和nist2016则都提供了所有图像的篡改区域掩膜。下面,我们使用以上提到的8种算法在三个数据集中做了实验,它们在三个数据集中的实验结果(f1-score)如表2所示。

表2不同模型在三个数据集上的实验结果

从表2的实验数据来看,我们提出的isfd模型对于图像中篡改区域的分割效果明显高于其它7种算法,在casiav1数据集中的f1_score达到了0.5789,比第二名sfcn还要高出10个百分点。但isfd模型的分割精确度并不是很高,图6中展示了6幅图像的篡改区域分割结果,通过对分割结果和篡改区域掩膜进行对比,我们发现模型已经可以识别出大部分的篡改区域,模型的缺陷也很明显,它不能精准地识别出图像的篡改区域边界,这在语义分割领域中也是一个难题,尽管我们进行了模型融合,但在融合过程中模型也无法精准地学习到篡改区域的边界信息,关于这点,我们将在未来进行持续地改进。

isfd模型在经过训练和微调后,也可以应用于其他的场景,线上配送的商家在美团或饿了么app中注册上线时是需要提供营业执照和食品经营许可证的,其中饿了么和美团会审查他们上传的证照,但并没有进行证照的篡改区域识别,如果有一些不法分子或是违规商家对它们的营业执照、经营许可证等图像使用了photoshop等工具进行了编辑,例如在经营范围中增加了自制饮品销售这一项,然后瞒过系统的审查以便在线上的商铺中出售自制的饮品,如果我们的审查系统不能准确的识别出这些篡改后的证照图片并对这些商家进行惩处,就会放任不法分子从中谋私利,所以,我们对isfd模型进行了微调后,进行了简单的证照图像篡改识别,结果如图7所示。图7中(a)为原始图像,(b)为篡改图像,(b)对(a)中经营项目这一栏进行了篡改,从检测的结果来看,模型可以有效地识别出图像拼接后的篡改区域。可见,我们的模型对于这类图像篡改的识别具有较好的鲁棒性。

我们针对图像的篡改区域分割提出了新的算法模型,实验表明了我们提出的模型对于图像拼接后的篡改图像具有较好的识别效果,在三个测试数据集中的表现也优于其他的算法模型。isfd模型的亮点主要是融合了图像的各层rgb特征及noise特征,使篡改区域的分割效果有了很大的提升。但模型的缺陷在于不能很好的分割篡改区域的边界,而且我们的模型只能检测出较明显的篡改区域,对于图像中字体的修改等就不能很好的识别,所以我们的模型还有较大的提升空间。将来,我们将考虑把图像的dct(discretecosinetransform),svd(singularvaluedecomposition)等特征也融合到模型中,提升模型的识别效果。

完整全部详细技术资料下载
当前第1页 1  2 
相关技术
  • 摄像机获取的琴键图像的偏移判...
  • 电子产品的缺陷检测方法、装置...
  • 脑图像处理方法、系统、计算机...
  • 一种基于视频图像分析的输电线...
  • 感兴趣区域的分类方法、装置、...
  • 一种基于图像处理的单细胞血红...
  • 一种CT图像异常检测方法及装...
  • 一种基于改进的U-net的混...
  • 基于半监督异常检测的碳纤维复...
  • 一种基于极化特征的铁水流速检...
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1
图像识别方法相关技术
  • 一种卷积神经网络图像识别方法及装置与制造工艺
  • 凭证图像识别方法及装置与制造工艺
  • 引线图像识别方法及识别装置以及图像处理用元件数据生成方法及生成装置与制造工艺
  • 一种图像识别方法及装置与制造工艺
  • 图像识别方法及装置与制造工艺
  • 一种利用Hough变换与函数拟合的导线覆冰厚度图像识别方法与制造工艺
  • 图像字符识别模型生成和竖列字符图像识别方法和装置与制造工艺
  • 基于图像的眼镜识别方法及装置与制造工艺
  • 一种基于图像识别的软件测试方法与制造工艺
  • 一种带有充电底座的体感遥控器的制造方法

玻璃钢生产厂家商场美陈太空飞人道具广场玻璃钢雕塑哪里找定西商场美陈西藏玻璃钢海豚雕塑厂家烟台玻璃钢造型雕塑公园商场美陈装饰气球主题商场美陈常州四川大型商场美陈供货商河北超市商场美陈景洪市玻璃钢雕塑设计代理南城玻璃钢花盆价格山东玻璃钢钢铁侠雕塑玻璃钢主题雕塑厂玻璃钢雕塑雕塑定制苏州小区玻璃钢雕塑生产厂家嘉定高品质玻璃钢雕塑建筑构件玻璃钢雕塑玻璃钢民族雕塑登封玻璃钢仿真雕塑玻璃钢雪山雕塑价格天津气球玻璃钢雕塑工艺品广东室内商场美陈订购六安步行街玻璃钢雕塑批发成都小区玻璃钢雕塑安装重庆公园玻璃钢雕塑设计信阳玻璃钢泡沫雕塑公司镇江玻璃钢卡通雕塑厂家商场美陈调改汝城玻璃钢花盆花器街道玻璃钢字母雕塑香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化