智能人像篡改技术的社会危害及其治理途径研究

发表时间:2021/6/16   来源:《科学与技术》2021年2月6期   作者:张稳1,陈泽楠2,蒋非凡3,崔宇宸4
[导读] 科技的发展使人民的生活日新月异,PS等一些修改图像的软件正在慢慢走进公众的视野,并且在其生活中占据一定的分量。
        张稳1,陈泽楠2,蒋非凡3,崔宇宸4
        1.江苏警官学院,江苏 盐城224000;2.江苏警官学院,江苏 南通226000;3.江苏警官学院,江苏 淮安223001;4.江苏警官学院,江苏 南京210000
        【摘要】:科技的发展使人民的生活日新月异,PS等一些修改图像的软件正在慢慢走进公众的视野,并且在其生活中占据一定的分量。调查显示,大多数的公众使用过类似于PS、美图秀秀等软件修改过个人照片,不足的是极少有人具备足够的安全意识和相关知识,来确保个人信息不泄露,个人版权不受侵害。面对日益增多的图像篡改型侵权类事件的发生,公众必须具备足够的法律常识和专业知识来解决此类问题。
        【关键词】:图像篡改;执法;社会危害;技术治理

        随着AI人工智能技术的普及,数字图像篡改技术早已经波及到我们日常生活的方方面面,一方面,人们能将照片修的越来越好看,这也是有益的方面;另一方面,生活中越来越多的图片已经无法用肉眼分辨真伪,图像信息所具有的“眼见为实”的可信特征,也遭受到了极大的挑战,并且带来了一些不好的影响和潜在危害,特别是针对人像的智能篡改技术,其负面作用在社会上造成的影响力逐渐放大,已经对社会安全、数据安全、道德法律等带来了较大的危害性,且给公安工作带来了全新的挑战[1]。
1.图像篡改检测技术的研究背景
        根据现有的图像篡改检测技术,传统的方法通常是将数字图像处理技术与人工相结合的方法来鉴定人脸图像是否被篡改,需要手动指定人脸所在的位置坐标,且只能对特定方式的篡改进行鉴定。但AI人工智能技术利用大数据的优势足以达到以假乱真的效果,此时采用传统方法及肉眼则难以辨别人脸是否被篡改。
        在《一种鉴定人脸图像是否被篡改的方法与流程》一文中,作者提出了一种涉及鉴定人脸图像是否被篡改的方法,该方法包括:获取待鉴定图像中所有人脸框的坐标信息;对所述人脸框进行处理得到含有部分人脸周边背景的抠图;将所述抠图送到预先训练的基于深度学习网络的人脸篡改判定模型中进行判定,判定后将该抠图中人脸是否被篡改的信息输出。通过此方法,对图片或实时视频进行鉴定,能够协助打击侵犯他人肖像的违法行为,从而有利于保护人脸隐私及肖像权。
2.本文的研究内容
        本文针对智能人像篡改造成的公共安全、法律风险等社会危害问题进行研究,并结合技术治理的角度,来研究防范智能人像被篡改的法律途径和技术途径,从而为人工智能技术的有序应用提供建议。
        主要研究以下内容:
        (1)通过案例分析、社会调查等方式,研究智能人像篡改造成的社会危害,以及导致这些问题的原因。
        (2)分析现有法律规范和待完善的方面以及相应的执法要求。
        (3)针对正规的由授权图像内容生产渠道获取的图像,研究通过数字水印技术来建立人像篡改验证机制。针对民间无授权的图像,探索通过图像盲取证技术,来对人像篡改检测的关键技术进行研究,并建设相应的盲取证平台。
3.智能人像篡改技术导致图像修改社会危害影响扩大化
3.1降低了使用门槛
        眼下AI技术盛行,作为近年来人工智能技术的新宠儿,人像的智能“换脸”、“换衣”如雨后春笋般层出不穷。伴随着多媒体采集设备的快速发展和使用,多媒体信息爆炸的时代已经到来,几乎人人都有能力制作、传递大量的数字图像。Photoshop、美图秀秀、美颜相机等图像编辑软件操作简单,导致了图像修改变得越来越容易,大大降低了使用制作的门槛,普通人也能很轻易地对图像进行加工和修改[2]。
3.2提高了篡改效率
        还记得曾经火遍全球的Deepfake换脸软件吗?这款应用一经上线就引爆了社交网络。同样,2020年国内上市的《ZAO》AI换脸软件也风靡一时,该应用再一次将换脸的门槛拉到新低,只要下载一个APP就能轻松玩转换脸,很大程度上提高了篡改人像的效率。在使用该换脸软件时,甚至无需PS,只需一张自拍照片,即可将本人脸部无痕换到明星头上,生成同款视频或表情包,因为效果逼真瞬间引爆了朋友圈,深受年轻群体的喜爱[3]。
3.3增强了篡改效果,难以检测取证
        换脸一时爽,但滥用或不当使用换脸软件的弊端也层出不穷。随着技术的发展,伪造图像也变得越来越不易察觉,甚至能够以假乱真,近些年网络上经常出现因篡改图像惹出的新闻,大量假图被用于散播谣言、编造虚假新闻,甚至有人以此非法获取经济利益。微博上“如何看待相亲、网恋照骗”一话题引发热烈讨论;疫情期间,有某男子因为不想上班,P图谎称自己接触新冠肺炎患者,导致公司47名员工被隔离;前不久令人印象深刻的腾讯和老干妈的官司,就是三名犯罪嫌疑人想非法获利而伪造电子假公章闹出来的乌龙[4]。
3.4人们还未深刻认识到该问题的危害性
        面对AI人工智能篡改技术带来的潜在威胁,又有多少人意识到保护个人隐私的重要性?
        近期,中国青年报社社会调查中心联合问卷网(wenjuan.con),对2003名受访者进行了调查,结果显示,61.6%的受访者使用过“换脸”特效软件,53.6%的受访者虽然担心个人信息被过度收集,但还是会用,93.3%受访者认为用户有必要提高保护个人信息的意识。
        为进一步了解受众群体的使用状况,我们团队制订了一份调查问卷,对身边232名处于各个年龄段的不同阶层人群进行咨询调查,调查问题分别为:(1)在使用美颜美图这类软件时,会不会担心自己的图片被软件平台获取用作其他用途?;(2)有没有遇到美图软件将自己处理的图片擅自发布到网上的情况?(3)是否担忧自己的隐私可能受到侵犯?(4)鉴于智能人像篡改技术所带来的伦理问题和潜在威胁,你觉得有无必要进一步开发检测篡改图像的技术?(5)你认为有没有必要提高保护隐私的意识?(6)你认为是否应该加强对deepfake、deepNude此类平台的管理?总共6个问题。调查结果如图3.1-3.6所示:
        
        
    

        据调查数据显示不难发现,大部分使用者会有照片被软件平台获取后用于其他用途的担忧,93.97%的用户表示有必要提高保护隐私的意识,还有12.5%的使用者表示曾发现美颜等相关应用软件擅自将自己的照片发布于平台上,76.29%的人表示担忧自己的隐私可能会受到相关平台的侵犯。
        此外,调查数据显示,93.53%的人希望加强对Deepfake、Deepnude等平台的监督和管理,鉴于智能人像篡改技术所带来的伦理问题和潜在威胁,69.83%的用户认为有必要进一步开发检测篡改图像的技术。在问到Deepfake、DeepNude此类篡改人像软件平台尚处于法律的灰色地带,对此你的看法是?王倩回答道:“软件本身并无对错,其带来的影响主要还是取决于使用者的意图,但篡改人像的技术确实让那些非法之徒有机可乘,网络不是法外之地!所以我认为应该加强对平台的监督管理,国家法律上也应该完善相关法律法规。只是,对图片修改的限制性法律着实不易制定,最好是针对已经造成侵犯的行为,加强对实施者的惩治力度。让惩罚程度略大于侵权所获利益,而非现今的惩罚力度不足以让侵权者望而却步”[5]。除此之外,大学生王倩表示还应该加强法律宣传力度,普及法律常识,让大家了解自己的所作所为,进一步增强法律意识,避免陷入违法犯法的境地。
4.完善法律规定,贯彻执法要求
4.1法制角色及现行法律规定情况
        法律法规是对人们社会行为的一种他律性强制约束,扮演着社会治理体系支柱的角色。现如今,高新技术的研发与应用是当今技术发展的前沿,存在着众多可能性、不确定性或技术风险,迫切需要法律上的刚性约束或调节。比如如今较火的人像篡改软件,细细思忖就存在着较多不合乎法律的问题,关于篡改图像的相关法律规定如下:
        (1)根据《中华人民共和国著作权法》及《伯尔尼公约》的规定,中国公民、法人或其它组织的作品,不论是否发表,自创作完成之日起即享有著作权。根据《中华人民共和国著作权法》第四十七条的规定,任何人未经权利人的许可,不得使用,更不得歪曲、篡改、剽窃,也不得为了谋取个人名利,在该图片上标署自己的姓名。否则,应当视具体情况,承担停止侵害、消除影响、赔礼道歉、赔偿损失等民事责任。以上即是关于图片侵权判定的规定,同时这也适用于图像篡改的规定[6]。
        (2)事实上,我国《刑法》已对完善个人信息保护做出过明确规定。2009年《中华人民共和国刑法修正案(七)》就明确标注了侵害个人信息的犯罪行为。2015年《中华人民共和国刑法修正案(九)》更是通过提升最高刑、添加从重处罚情节、降低入罪标准等规定,来进一步表达了保护个人信息的态度。2016年通过的《网络安全法》第四十四条和四十五条也明确指出,个人信息受到保护,相关人员负有保密义务。但在现如今,随着智能人像的发展,很多不法分子不能履行好对个人信息的保护,对人像、图像等进行大肆篡改,导致个人信息受到严重威胁。这些问题或许有望改善,2019年5月28日,国家互联网信息办公室会同相关部门研究起草并发布了《数据安全管理办法(征求意见稿)》,从数据收集、处理使用、安全监督管理等几个方面,提出了保障个人信息和重要数据安全的目的[7]。不仅如此,未来随着《个人信息保护法》的出台,个人信息的保护将具有更加系统和全面的法律依据。
4.2完善的办法
        如何有效治理智能人像篡改的非法应用问题,个人信息安全、网络安全是两个关键因素。基于此,应对智能人像篡改等非法应用问题,从以下两方面进行完善:
4.2.1完善个人信息保护制度,切断数据支撑
        完善对个人信息保护相关的地方性行政法规。仅仅有《网络安全法》的出台或许还不够,仍需要建立和完善更加具体的地方行政法规,使政府机关能够主动参与到侵害个人信息的犯罪治理过程中来,加强政府机关对收集、使用个人信息等行为的监管,从而有效降低侵害个人信息的违法事件。完善行业标准,加强行业内部监督。相较于外部监督,行业内部监督则更具可行性。对于收集、管理、分析个人信息的各种行业,都应该完善相关的行业标准,在行业标准中重点强调对个人信息的保护,签订安全协议,杜绝企业及内部人员出现窃取个人信息的可能,以此来加强行业的内部监督。
4.2.2以平台监管控制智能人像篡改的问题
        加强对平台的监管,能够从源头上遏制非法人工智能工具的流通,降低人工智能非法应用的风险。但是只寄希望于政府机关对网络平台的全面监管是不切实际的,还需赋予平台经营者、管理者监督和管理自己平台的责任,从而有效号召平台以自身力量,来弥补政府监管能力的不足。
        平台监管责任并非是强加于平台运营与管理方的不合理责任,而是具有现实的法律依据的。依照《网络安全法》、《网络信息内容生态治理规定》,网络信息内容服务平台应当积极履行管理信息内容的责任,加强对平台信息内容的生态治理,培育出积极健康、向上向善的网络文化,运行管理要建立健全算法推荐的人工干预机制、用户协议机制、举报机制、反查报告机制等。平台要按照《网络安全法》、《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》等法律法规以及政策要求,认真开展安全评估工作,完善风险防控机制和措施,并对安全评估中存在的安全隐患,及时采取有效整改措施,切实履行企业对信息内容安全保护的主体责任。若违反相关规定给他人造成损害的,需依法承担民事责任;构成犯罪的,依法追究其刑事责任;尚不构成犯罪的,则由相关部门依照有关法律法规予以处罚。
        根据以上规范,针对智能人像篡改问题,网络平台的运营与管理方当然有义务进行监督及制止。因此,当下的任务是在现实中细化这些规范,进一步推进平台监管责任的落实工作,切实的将平台管理者和运营者纳入智能人像篡改的治理环节,从而切断智能人像篡改的非法渠道。
4.3整合社会力量治理智能人像篡改非法应用问题
        发动群众的力量固然是治理犯罪的有效途径,但通过网络企业这一平台,整合网络群众的力量,解决网络犯罪问题就兼顾了依靠群众和将犯罪治理延伸到网络空间之中这两点要求。“网络枫桥经验”事实上是一个三赢的模式。首先,公安机关减少了人力物力和技术成本的投入,并通过与网络企业的合作能够保证获取更加及时准确的智能人像篡改非法应用信息;其次,对于普通民众来说,既为其提供了智能人像篡改非法应用的举报途径,也获得了更加安全的网络环境,从而可以更放心地进行网络活动;最后,对于网络企业来说,一方面展现了其作为企业的社会责任,另一方面,净化的网络环境也为其生存与发展带来了更有利的保障,因此,推广“网络枫桥经验”,让网络企业知悉合作治理网络犯罪的好处,使他们加入到犯罪治理之中,整合第三方的资源与力量,对治理智能人像篡改非法应用问题而言有着极其重要的意义。
5.构建技术框架,落实法制监督
5.1数字水印和图像取证技术的发展情况
        数字图像检测技术主要分为主动取证技术和被动取证技术。主动取证技术要求在数字媒体传输之前,嵌入相关有用的信息,以保护数字媒体。需要验证版权信息以及数字媒体是否真实、完整时,可将事先嵌入的有用信息提取出来,通过对比、取证来验证版权所属及真实性。
5.2数字水印在平台监管治理中的应用
        数字水印作为一种主动取证技术,需要在即将发表的图片中注入水印,来防止出现图像被人恶意篡改、盗用的情况。在bilibili、知乎、微博等平台上均采用了数字水印技术,用户在发表个人图片时会在图片中自动生成水印,当图片水印被人擦除且恶意盗用时,图像本身的结构也发生了变化,因此可以进一步追查图像是否被人恶意篡改。与过去数字水印尚未出现的时代相比,当前在处理图像篡改侵害类事件的过程中,平台监管的压力大大得到了减轻。
5.3图像取证技术在案件侦查中的应用
        图像篡改被动取证技术有以下几个分支:基于相机特性的篡改检测、基于压缩历史的方法、利用处理篡改痕迹的方法。
        第一种基于相机特性的篡改检测,根据相机拍摄照片的两个特性:颜色滤波阵列CFA(ColorFilterArray)以及相机传感器模板噪声来检测篡改情况。基于CFA的篡改检测,图像的ColorFilterArray插值存在与否决定图像是否被篡改;基于相机传感器模板噪声和图像噪声的相关性计算也可以检测出篡改情况,相机拍摄过程中固定模板噪声PNU(pixelnon-uniformity)成分是始终不变的,因此我们通过对PNU成分的分析,定位图像中被篡改的区域。由于利用CFA插值的存在来检测篡改无法自动检测出疑似篡改区域,利用传感器检测无法准确检测出天空或过于漆黑的区域,因此我们将两种方法结合起来,利用传感器的模板噪声检测出区域,然后通过检测CFA定位篡改位置。
        第二种基于压缩历史的篡改检测,又称JPEG压缩标准,其在压缩技术中具有广泛应用。由于不同相机采用不同的CCD(chargecoupleddevice)芯片将光信号转化成电信号,导致相机模式噪音不同,因此相机内部降噪技术也不同,从而产生多种影响模式噪音传输的情况,
最终导致进行第一次JPEG压缩时对模式噪音的压缩量不同。通过对第一次JPEG压缩时,不同的模式噪音压缩量来检测图像是否出自同一相机,也即是否被篡改。
        第三种基于处理篡改痕迹的篡改检测,可以通过检测对比度、中值滤波、区域复制篡改等方式来检测图像篡改。为了改善图像主观视觉效果,提高图像的对比度,我们可通过调整图像的灰阶分布,增强其在0~255灰阶上分布的均衡性。因此,通过检测0~255灰阶上的分布情况,即可检测图像是否被篡改。
        中值滤波可以起到平滑图像,过滤噪声的作用。中值滤波采用非线性的方法,对于处理平滑脉冲噪声较为有效,同时可对图像尖锐的边缘进行保护,并选择适当的点来替代污染点的值,因此具有较好的处理效果,且对椒盐噪声表现较好,对高斯噪声表现较差。我们通过检测图像像素是否是一个单调上升或者单调下降的二维数组序列,来检测图像是否经过中值滤波篡改。
        对于区域复制的篡改,我们使用LBP(LocalBinaryPattern,局部二值模式)来描述局部纹理特征。原始的LBP只能在一个3*3像素大小的窗口内,不符合图像灰度和旋转不变性的要求,因此现在我们使用圆形区域,在半径为R的圆形区域内有任意多个像素点。我们使用改进型的LBP算子在每个像素点得到一个编码,提取其原始的LBP算子之后,得到的原始LBP特征依然是“一幅图片”(记录的是每个像素点的LBP值),然后使用相似性度量函数来判断两幅图片是否为同一张图片。
6.结语
        综上,通过我们团队的共同研究,我们对智能人像篡改技术的社会危害及其治理途径有所了解,首先,通过前期案例搜集、社会调查等方式,初步了解到智能人像篡改造成的社会危害,以及导致这些问题的原因。其次,针对调查中发现的问题和造成的社会危害,我们通过整合与分析与人工智能相关的现有法律法规,提出了有待完善的建议与相关部门的执法要求。最后我们团队通过研究数字图像检测技术的相关理论,构建了初步技术框架,在此基础上也诚恳要求各部门落实法制监管责任,唯有我们大家努力协作,各司其职的同时加强相互配合,由智能人像篡改造成的公共安全、法律风险等社会危害问题才能实现最小化。
【参考文献】
[1]曹建峰,方龄曼.“深度伪造”的风险及对策研究[J].信息安全与通信保密, 2020(2): 89-97.
[2]张桦. 网络空间“深度伪造”的威胁及治理[J].网络空间安全, 2020, 11(5):45-51.
[3]李腾.“深度伪造”技术的刑法规制体系构建[J].中州学刊, 2020(10):53-62.
[4]齐荣臣, 张龙, 杜品圣,等. 人工智能技术在智能制造示范线上的应用[J]. 自动化博览, 2019, 36(9):99-102.
[5]熊波. “深度伪造”的扩张化刑事治理风险及其限度[J].安徽大学学报(哲学社会科学版), 2020, 44(6):106-113.
[6]李军伟. 智能图像处理技术在自动生成人像素描绘画中的应用研究[J]. 自动化与仪器仪表, 2019(7):219-221.
[7]易晓鹏, 杨志勇, 吴文德. 图像处理及物联网技术在智能交通系统中的探索及应用[J]. 计算机产品与流通, 2020(11):54-54.
【基金项目】本文系江苏警官学院2020年度大学生实践创新训练计划项目,项目编号:202010329038Y
投稿 打印文章 转寄朋友 留言编辑 收藏文章
  期刊推荐
1/1
转寄给朋友
朋友的昵称:
朋友的邮件地址:
您的昵称:
您的邮件地址:
邮件主题:
推荐理由:

写信给编辑
标题:
内容:
您的昵称:
您的邮件地址: