来自 社会 1970-01-01 08:00 的文章

原标题:防范人脸识别滥用,该建个人信息梯度保护制度

  新京报插图/赵斌

  根据个人信息保护的制度和实践,可以有四种构造人脸识别技术应用场景的模式,相应地,对于个人信息的保护也是在逐步增强。

  最近,从AI视频监控进课堂、“ZAO”APP换脸到“人脸识别第一案”,人脸识别技术带来的安全隐患为舆论所关切。而新京报近日刊发的调查报道,则进一步坐实了公众的“人脸焦虑”。

  记者调查发现,网上有一些私下售卖人脸数据的卖家,有发帖者称8元可买3万张人脸照片,有卖家表示可以提供“更多渠道”的人脸图片。还有卖家表示,其出售的照片大部分来自朋友圈,且没有取得对方同意。

  对人脸识别的担忧,当区分两个层次

  人脸识别技术本质上是一种算法,是通过捕捉一个人的脸部几何特征,并将其与已经储存的图像进行比对的身份识别技术。

  当前,法律制度对于个人信息的保护采取的是分等级保护的模式,区分一般个人信息与敏感个人信息,对于诸如人脸、指纹和基因等具有高度可识别性的个人生物信息,给予最高等级的保护。

  不过,由于对人脸识别技术带来的偏见和隐私方面的担忧,有的国家和地区明确限制甚至禁止其使用。当前,正如上文调查中所言,我国人脸识别技术的应用也具有泛滥的倾向,通过立法明确加以规制的呼声一直很高。

  当前,我们对于关于人脸识别技术的担忧,应该区分两个层次。

  第一个层次是主要的,即在何种场景下运用人脸识别技术是允许的。这个层次对应的是个人信息收集需要符合“必要且有限”的原则;

  第二个层次是人脸识别技术涉及的人脸信息和图像在被收集和储存后的处理,即如何做到准确、没有歧视、数据安全,且符合最初人脸识别技术运用的目的。

  第一层次在逻辑上应当是在先的。人们往往也会因为第二个层面的担忧无法得到满足,而对人脸识别技术应用场景的容忍度产生差别。

  不过,第二个层面担忧的解决,并不一定需要全面禁止或限制人脸识别技术的应用,而是可以通过技术自身的改进和制度的优化来加以应对。当然,也可能因技术上无法解决的困难,而导致禁止或限制其应用。

  就当前的讨论而言,区分第一个层面具有更直接的相关性。

  人脸识别技术应用场景分为四种模式

  根据个人信息保护的制度和实践,可以有四种构造人脸识别技术应用场景的模式。

  第一种模式是人脸识别技术的应用无须告知,也无须取得同意。这种模式的主要场景应该限于执法领域,例如用于发现犯罪嫌疑人,反对恐怖主义等;

  第二种模式是人脸识别技术的应用需要告知,但无须取得同意。这里的告知在实践当中基于特定场合的不同,可以体现为公告的形式,主要的应用场景应该限于机场、车站、体育场所等人流密集的地方,这种场景下的应用目的主要应限于维护公共安全的需要;

  第三种模式则是必须事先告知,并且取得同意,这种场景下的应用主要是在商业领域,以人脸识别技术进行统计、打卡也可以宽泛地归入到这种场景。在这种场景下,信息主体通过人脸识别形象获得的是诸如便利,或者某些经济方面的利益;

  第四种模式是即便事先告知和取得同意,也应该予以限制甚或禁止的情形。这里的应用场景是学校、公园、图书馆等公共服务机构,基于便利和效率的需要而进行人脸识别,但具体允许到何种程度则应该根据具体的情形加以分析。

  这四种模式的背后,实际上是一种基于技术应用目的所进行的利益权衡。即人脸识别技术可能带来的收益,与可能产生的风险以及隐私价值的权衡。

  建立个人信息梯度保护制度

  前面四种模式,利益的权衡都应该遵循严格、必要且有限的原则。例如,就第一种和第二种情形而言,公共机构基于特定的公共安全目的,对于特定场所和环节应用人脸识别技术,但如果扩大为对所有公共场所无差别地适用,就会给个体造成自在空间被收缩的束缚感和焦虑感;

  就第三种情况而言,则是信息主体在自身的便利、效率和个人信息的自我控制与安全之间进行权衡。在这种情形下,即便采取告知和明确同意的原则,如果信息主体不清楚自己的信息被如何处理甚至被交易,就会给个体自我生活失去控制的被剥夺感。所以,人脸识别技术还应该在后续的储存和处理等环节,保证透明度和信息的安全。

热门文章