AI人像生成技术横空出世,隐私安全保护再遭挑战

发布时间: 2020-6-24

  语音、文字和图像是人工智能技术发展的三大重要方向。近年来,在我国连续将人工智能写入政府工作报告,提出”智能+”发展新概念,以及设立人工智能相关专业、学院和新职业的背景下,人工智能技术在这三方面的发展可谓取得了不小突破。尤其在图像领域的技术升级上,更是让人耳目一新。

  据有关媒体报道,近日中国科学院北京分院的研究团队便研发出了一个AI人像生成模型。据悉,该模型能够根据简笔画生成逼真的人脸肖像,利用这一模型,即使是没有绘画经验的人也可以很容易地得到逼真人像。未来,这一技术成果不仅能用于娱乐,同时甚至还能帮助执法人员进行嫌疑人画像。

  ”AI人像生成”,在此之前并非闻所未闻。不过,按照以往生成人像的方式,称作”AI人像合成”更为贴切。因为此前利用AI获得的人像,不管是仿照真人的还是完全虚拟的,基本都是通过将素材库里的人像特征进行组合利用,生成的人像往往有迹可循。而中科院的新技术则完全基于简体画还原。

  根据原理,中科院的AI人像生成技术首先需要将简笔画输入模型之中,然后模型根据简笔画推理出人脸各个器官的布局,经过对左眼、右眼、鼻子、嘴唇、脸型这5个关键”组件”的分析、推理和预估之后,模型再从简笔画倒推出逼真的人脸图像。在此过程中,仅需模型对人脸组建样本进行学习。

  毫无疑问,从有迹可循的”合成”到自我推理的”生成”,是AI在人像技术上的一个巨大进步。该技术的突破能让娱乐、影视制作、警方破案等变得更加轻松和简单,未来应用价值令人期待。不过,基于仍需要庞大素材库、数据库来供以学习,在隐私信息安全方面仍存在一定隐患,这将影响其落地。

  毕竟自AI人像合成技术出现以来,其背后的数据隐私安全问题就广为人们所关注。与此同时,即使是在人像方面的代表性技术AI人脸识别,也时常爆发出各种隐私纠纷和隐患,这不得不让人们提高警惕。对于大家来说,将自己的人脸信息交付给企业,总会存在被滥用和盗用风险,这是很不安的。

  基于此,伴随着AI图像技术的不断升级,我们对于数据隐私安全的保护也需同步跟进。只有如此,才能让升级后的技术获得落地机会,展现出更多价值。因此,对于普通人来说,首先应该提升和强化隐私保护的意识,不要轻易为了一时的便利而出卖隐私,同时在隐私遭受侵犯后也需要主动的维权。

  而对于企业来说,在升级技术和维持产品应用中需要获取用户一定信息可以理解,但在获取的过程中不能过度,比如轻松对应到人。同时,对于获取信息的保护意识和责任也需培养和请掉,毕竟大部分隐私侵权都是源于企业道德的缺失或者保护不力数据泄露。基于此,未来企业身上的担子必须肩起。

  此外,对于政府和行业来说,出台相关规范和标准,加强技术应用的监督与管理,是其重要职责。一方面,需要通过政策、法规不断完善法律体系,将用户隐私保护列入个人信息保护之中,让侵权维权有法可依;另一方面,也需要强化有关部门监管职能和惩治力度,让用户维权投诉有门,有所依靠。

  总而言之,AI在人像技术的发展对于人们的生产和生活来说是一个福音,但与此同时也带来了隐私安全方面的更大挑战。未来,我们只有在加速技术研发、突破和升级的同时,进一步补齐隐私安全保护短板,完善相关法律监管制度和体系,为技术落地营造一个健康、稳定、和谐的环境,才能走向成熟。

来源:智能制造网