人脸识别信息应用的准入审核
人脸识别信息应用的准入审核
人脸识别信息应用的社会风险
人脸信息应用作为一项全世界通用的新技术,它的发展在为社会带来巨大收益的同时也伴随着难以预测的风险,因人脸信息具有区别于其他个人信息的特殊性,其固有的技术风险主要表现在两个方面:第一,技术准确率的风险;第二,技术的安全性风险。除促进技术的进一步优化采取技术措施降低技术风险外,更有必要完善相关法律规制。基于人脸信息的特殊性和人脸信息应用技术的自身技术风险,人脸信息技术应用在实践或非法滥用中可能会产生系统性的社会风险,具体如下:
1.侵犯个人权利
针对社会个体而言,人脸信息应用技术的侵权风险是指人脸信息应用技术在正常应用或非法滥用中出现的或可能出现的侵犯信息主体人身权利和财产权利的风险,主要表现为:第一,人脸信息应用技术的滥用可能会侵犯公民个人的人身权;第二,人脸信息应用技术可能会侵犯公民个人的隐私权;第三,人脸信息应用技术可能会侵犯公民的平等权;第四,人脸信息应用技术可能会侵犯公民的财产权。
2.冲击社会治理结构和公***秩序
深度伪造技术通过把人脸信息和声音输入机器学习的算法进行“面部操作”即把一个人的脸部特征和表情覆盖至其他任何一个人的脸上,同时利用对声音的逼真处理,制造出实为合成却看似为真的音像、视频等。这种以人脸信息应用为主的深度伪造技术对社会治理和公***秩序的影响和危害是不言而喻的:
第一,冲击现有社会治理结构;第二,存在社会失序的风险。在现代社会之中,人无法脱离社会以“孤岛”的状态生存,人脸信息技术的滥用尤其是深度伪造技术的快速演进消弭了社会***同体的信任,将使维系人类社会正常秩序的资讯均陷入真假难辨的困境,社会信用体系可能会崩塌。
3.可能危及国家安全
人脸信息技术的非法使用为政治抹黑、军事欺骗、经济犯罪甚至恐怖主义等提供了新工具,给政治安全、经济安全、社会安全带来新的风险挑战:第一,伪造技术为抹黑政治人物提供了新工具;第二,伪造特定人群影响舆论;第三,深度伪造技术或成为制造网络空间战的新型武器。此外,人脸信息虽然属于自然人所有,具有私人性,但经过大数据收集和分析的不特定多数人的庞大信息,尤其是一国国民或特定民族基因等特殊信息,一旦经历跨境流动,借助基因编辑等技术测定并被利用于生化武器开发等,会对国家安全造成巨大威胁。
人脸识别信息技术准入审核制度的构建初探
人脸信息技术的非法应用通常通过网络系统进行,网络传播速度快、范围广及隐蔽性强等特点使事后救济存在严重局限。为有效管控人脸信息技术应用带来的风险,亟须构建人脸信息应用技术的事前准入制度。任何法律制度设计都应有充分的理论基础作为支撑,探讨研究人脸信息应用法律规制的理论基础能够更加明确规制的可行性、基本原则、基本路径等问题,为具体路径设计提供充分的理论支撑。
1.借鉴风险预防原则
是否借鉴风险预防原则,应当对人脸信息应用技术的风险基础要素进行深入分析。第一,进行风险预防的前提是确有损害风险存在。人脸信息应用技术除其本身技术风险,在实践中已经出现侵犯公民人格权、隐私权、平等权、财产权等风险,存在冲击公***秩序和危害国家安全的可能,应构建人脸信息应用技术的相关法律规制满足借鉴风险预防原则的前提。第二,风险具有科学认识上的“不确定性”。
从人脸信息应用的发展,尤其是深度伪造技术的演进来看,该技术应用对发生冲击公***秩序和危害国家安全的可能性较大,确有必要借鉴风险预防原则,即有必要以限制技术发展与应用或限制公民当下的部分权益来保障未来更大的法益。
2.设立个人信息保护专门机构
我国法律规定滞后于人脸信息应用技术发展,不能满足现实需要,但单独制定生物识别信息保护法律还需要较长的立法周期。为遏制人脸信息应用技术的社会性风险,避免出现不可逆的损害结果,构建人脸识别的法律规制必须强化风险预防意识,重在事前审查而不是依赖事后救济,因此需要政府监管部门的事前审核。
在我国现行法律确立的主管模式下,容易出现权责重叠、推诿扯皮的现象,多个政府部门的监管标准、程序不统一,影响了政府部门的管理效率,不利于其履行个人信息保护职责。因此,笔者建议借鉴欧盟、德国的经验,在我国设立个人信息保护的专门机构,提高人脸信息保护的专业化水平。
3.建立事前许可机制
人脸信息应用技术虽带来较大的效益,但由于其可能会带来社会性的系统风险,甚至有冲击公***安全、国家安全等重大法益的风险。因此,应当借鉴风险预防原则在人脸信息应用的法律规制引入事前许可制度,即信息处理者主张使用人脸信息技术必须获得政府专门机构的许可,以强化对信息处理者的规制,真正从源头控制人脸信息应用中的风险。