兩個方面:一是生物認(rèn)證主要靠圖像或者視頻來進行特征確認(rèn),圖像和視頻在某種程度上是可以偽造的,“現(xiàn)在有一種方法叫做AI偽造,就是通過AI算法‘造出’一個不存在的人臉,或者自適應(yīng)生成其他人臉,這種算法叫GAN,也稱為對抗式神經(jīng)網(wǎng)絡(luò),它可以通過大量的樣本訓(xùn)練生成一些不存在的假樣本、偽樣本。”
二是生物認(rèn)證本質(zhì)上是字符映射,在計算機里人臉特征是用0和1這樣的數(shù)字來描述,所以即使系統(tǒng)里不存在這張臉,但是通過黑客攻擊的方法,就可以用數(shù)字的方式把這些特征輸入進去,人臉識別就有可能會通過。
2020年10月,一項涉及2萬多人的調(diào)查研究——《人臉識別應(yīng)用公眾調(diào)研報告(2020)》顯示,有九成以上的受訪者使用過人臉識別,有六成受訪者認(rèn)為人臉識別技術(shù)有濫用趨勢,還有三成受訪者稱,已經(jīng)因為人臉信息被泄露和濫用而遭受到隱私或財產(chǎn)損失。
相較于身份證號、手機號之類的個人信息泄露,目前曝光于大眾視野的人臉數(shù)據(jù)泄露事件還不算多。但已有媒體報道,一些網(wǎng)絡(luò)黑產(chǎn)從業(yè)者利用電商平臺,批量倒賣非法獲取的人臉等身份信息和“照片活化”網(wǎng)絡(luò)工具及教程。
一個良性的變化是,民眾的隱私保護意識有所提升。報告顯示,高達八成的受訪者表示關(guān)心過人臉原始信息是否會被收集方保留以及會被如何處理。具體到人臉信息的處理規(guī)則,受訪者最想知道收集方“采取何種技術(shù)和管理措施保證收集的人臉信息安全”,以及“人臉識別技術(shù)是否為第三方提供,如是則第三方是誰”和“人臉信息目前被使用在哪些場景,是否變更了使用目的”。
行業(yè)自律與法律監(jiān)管缺一不可
受訪專家大多表示,樂于看到人工智能等新技術(shù)的應(yīng)用和發(fā)展,但加強個人信息保護同樣刻不容緩。
李千目認(rèn)為,對于人臉識別技術(shù)的濫用,一是形成強有力的監(jiān)管,對不法行為進行威懾;二是進行技術(shù)防范,用人工智能方法進行反人工智能的識別和判別,并建立相應(yīng)的認(rèn)證庫或第三方認(rèn)證中心,對生物認(rèn)證進行核查;三是加快立法,加大對違法行為的懲罰力度。
放眼全球,一些發(fā)達國家已經(jīng)在立法上先行一步。2015年,美國發(fā)布《面部識別技術(shù)——商業(yè)用途、隱私問題及其適用的聯(lián)邦法律》報告,對商業(yè)實體使用面部識別技術(shù)來識別或跟蹤個人進行限制。2018年,《歐盟通用數(shù)據(jù)保護條例》(GDPR)正式生效,明確規(guī)定個人數(shù)據(jù)是個人所有的數(shù)據(jù)資產(chǎn),被稱為“史上最嚴(yán)”的數(shù)據(jù)保護法案。
我國在個人信息保護層面的立法也已提速。例如《民法典》將自然人生物識別信息列為個人信息;《個人信息保護法(草案)》擬對侵害個人信息權(quán)益行為,給予沒收違法所得和罰款等處罰。
不可否認(rèn),技術(shù)有很強的工具屬性,誰都可以用,有人用鋼鐵造廣廈千萬間,有人用槍炮屠戮生靈萬千。所以,程國斌認(rèn)為,對于人臉識別技術(shù)的濫用,除了法律監(jiān)管行業(yè)自律,還必須對其進行深刻的倫理反思和倫理治理。
“開發(fā)一項新技術(shù)的時候,人類總是帶有某種價值傾向或價值追求。對這個具體的初始價值與技術(shù)應(yīng)該促進社會發(fā)展和人類幸福的總體價值之間的關(guān)系做出考量,是科技倫理重要的工作。”程國斌說。
2019年7月,中央全面深化改革委員會第九次會議審議通過了《國家科技倫理委員會組建方案》。實施科技倫理審查就是為科技創(chuàng)新劃定必要的倫理航道和價值底線,明晰科學(xué)技術(shù)活動中“有所為,有所不為”的倫理邊界,防止隨意打開“潘多拉魔盒”。
“但據(jù)我所知,目前我國倫理審查機制僅在醫(yī)學(xué)界建設(shè)得相對完備,而在高校院所和企業(yè)科研中基本是空白。與歐美的一些發(fā)達國家相比,我國科技倫理審查的覆蓋面和制度的完備性方面,還有較大的提高空間。”程國斌說,成立機構(gòu)只是開始,一整套的機制、政策、法律體系和潛移默化的科學(xué)倫理意識還需加快培育。