原标题:防范人脸识别滥用,该建个人隐私信息梯度保护制度
一种说法
根据个人隐私信息保护的制度和实践,可以有四种构造人脸识别技术应用场景的模式,相应地,对于个人隐私信息的保护也是在逐步增强。
最近,从AI视频监控进课堂、“ZAO”APP换脸到“人脸识别第一案”,人脸识别技术带来的安全风险隐患为舆论所关切。而新京报近日刊发的调查报道,则进一步坐实了公众的“人脸焦虑”。
记者调查发现,网上有一些私下售卖人脸数据的卖家,有发帖者称8元可买3万张人脸照片,有卖家表示可以提供“更多渠道”的人脸图片。还有卖家表示,其出售的照片大部分来自朋友圈,且没有取得对方同意。
对人脸识别的担忧,当区分两个层次
人脸识别技术本质上是一种算法,是通过捕捉一个人的脸部几何特征,并将其与已经储存的图像进行比对的身份识别技术。
当前,法律制度对于个人隐私信息的保护采取的是分等级保护的模式,区分一般个人隐私信息与敏感个人隐私信息,对于诸如人脸、指纹和基因等具有高度可识别性的个人生物信息,给予最高等级的保护。
不过,由于对人脸识别技术带来的偏见和隐私方面的担忧,有的国家和地区明确限制甚至禁止其使用。当前,正如上文调查中所言,我国人脸识别技术的应用也具有泛滥的倾向,通过立法明确加以规制的呼声一直很高。
当前,我们对于关于人脸识别技术的担忧,应该区分两个层次。
第一个层次是主要的,即在何种场景下运用人脸识别技术是允许的。这个层次对应的是个人隐私信息收集需要符合“必要且有限”的原则;
第二个层次是人脸识别技术涉及的人脸信息和图像在被收集和储存后的处理,即如何做到准确、没有歧视、数据安全,且符合最初人脸识别技术运用的目的。
第一层次在逻辑上应当是在先的。人们往往也会因为第二个层面的担忧无法得到满足,而对人脸识别技术应用场景的容忍度产生差别。
不过,第二个层面担忧的解决,并不一定需要全面禁止或限制人脸识别技术的应用,而是能够最终靠技术自身的改进和制度的优化来加以应对。当然,也可能因技术上无法解决的困难,而导致禁止或限制其应用。
就当前的讨论而言,区分第一个层面具有更直接的相关性。
人脸识别技术应用场景分为四种模式
根据个人隐私信息保护的制度和实践,可以有四种构造人脸识别技术应用场景的模式。
第一种模式是人脸识别技术的应用无须告知,也无须取得同意。这种模式的主要场景应该限于执法领域,例如用于发现嫌疑犯,反对恐怖主义等;
第二种模式是人脸识别技术的应用需要告知,但无须取得同意。这里的告知在实践当中基于特定场合的不同,可以体现为公告的形式,主要的应用场景应该限于机场、车站、体育场所等人流密集的地方,这种场景下的应用目的主要应限于维护公共安全的需要;
第三种模式则是必须事先告知,并且取得同意,这种场景下的应用主要是在商业领域,以人脸识别技术进行统计、打卡也可以宽泛地归入到这种场景。在这种场景下,信息主体通过人脸识别形象获得的是诸如便利,或者某些经济方面的利益;
第四种模式是即便事先告知和取得同意,也应该予以限制甚或禁止的情形。这里的应用场景是学校、公园、图书馆等公共服务机构,基于便利和效率的需要而进行人脸识别,但具体允许到何种程度则应该根据具体的情形加以分析。
这四种模式的背后,其实就是一种基于技术应用目的所进行的利益权衡。即人脸识别技术可能带来的收益,与可能产生的风险以及隐私价值的权衡。
建立个人隐私信息梯度保护制度
前面四种模式,利益的权衡都应该遵循严格、必要且有限的原则。例如,就第一种和第二种情形而言,公共机构基于特定的公共安全目的,对于特定场所和环节应用人脸识别技术,但如果扩大为对所有公共场所无差别地适用,就会给个体造成自在空间被收缩的束缚感和焦虑感;
就第三种情况而言,则是信息主体在自身的便利、效率和个人隐私信息的自我控制与安全之间进行权衡。在这种情形下,即便采取告知和明确同意的原则,如果信息主体不清楚自己的信息被怎么样处理甚至被交易,就会给个体自我生活失去控制的被剥夺感。所以,人脸识别技术还应该在后续的储存和处理等环节,保证透明度和信息的安全。
就第四种场景而言,在不涉及重大安全考虑的情况下,考虑到人脸识别是一种更加具有侵犯性的技术方式(弱于收集指纹),所以,相应部门应当考察是不是真的存在其他更不具有侵犯性的替代性方式。如何以效率和便利的前提下,考虑人脸技术在这种场景下的运用,将会是一个最大的挑战。
总的来说,这四种模式对于人脸识别技术在允许性方面的规制是逐步增强的。相应地,对于个人隐私信息的保护也是在逐步增强。通过区分不同的场景以及不同场景的利益的权衡,从而建立对于个人隐私信息的一种梯度保护制度。
□毕洪海(北京航空航天大学法学院副教授、院长助理)