圖片來源:視覺中國
今日視點
人臉識別系統已經給我們的都市帶來諸多方便。然而,在許多國家,對人臉識別的抵抗聲也在不斷高漲。研究人員、公民自由宣導者和法律學者都受到人臉識別技術興起的困擾。他們正在跟踪其使用,揭露其危害並開展運動以尋求保障甚至是徹底禁止科技的使用。然而,科技發展的潮流浩浩蕩蕩,更多人認為該科技的存在是“不可避免的”,但是其背後存在的道德倫理問題值得我們深思。
近期,《自然》雜誌的一系列報導對人臉識別系統背後的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高科技透明度。
《自然》雜誌對480比特從事人臉識別、人工智慧和計算機科學領域研究的研究人員的調查顯示,人們對人臉識別研究的倫理學普遍存在擔憂,但也存在分歧。
有些未經同意獲取數據
為了使人臉識別算灋正常工作,必須對大型影像數据集進行訓練和測試,理想情况下,必須在不同的光照條件和不同的角度多次捕獲這些影像。過去,科學家普遍招募志願者,只為收集各種角度的照片;但現在,大多數人未經許可即被收集人臉影像。
在《自然》雜誌的480比特受訪者中,當被問及對應用面部識別方法從外表識別或預測個人特徵(如性別、年齡或種族)的研究有何看法時,約三分之二的人表示,此類研究只能在獲得面部識別者知情同意的情况下進行,或者在與可能受到影響的群體代表討論後進行。
大多數人認為,使用人臉識別軟件的研究應事先獲得倫理審查機构(例如機构審查委員會)的準予。他們認為,對於在學校、工作場所或由私人公司監視公共場所時使用人臉識別進行即時監視感到最不舒服,但是他們通常會支持警詧在刑事調查中使用人臉識別系統。
從法律上講,現時尚不清楚歐洲的科學家是否可以未經人們的同意而收集個人人臉的照片以進行生物識別研究。歐盟的通用數據保護條例並沒有為研究人員提供明顯的法律依據。在美國,一些州表示,商業公司未經其同意使用個人的生物識別數據是非法的。
受訪者强烈認為,應該有其他法規來規範公共機构使用人臉識別技術。超過40%的人則希望禁止實时大規模監視。
存在性別和種族偏見現象
人臉識別系統通常是專有的並且保密,但是專家說,大多數系統涉及一個多階段過程,該過程通過深度學習對大量數據進行大規模神經網路訓練。
美國國家標準技術研究院(NIST)在去年年底發佈的報告中稱,人臉識別的準確率有了顯著提高,深度神經網路在識別影像方面效果明顯。但NIST同時也證實,相對於有色人種或女性,大多數人臉識別對於白人男性面孔的準確性更高。特別是,在NIST的資料庫中被歸類為非裔美國人或亞裔的面孔被誤認的可能性是那些被歸類為白人的面孔的10—100倍。與男性相比,女性誤報的可能性更高。
領導NIST影像小組的電力工程師克雷格·沃森認為,這種不準確很可能反映了每家公司培訓資料庫構成的不平衡,一些公司可能已經開始解决這個問題。
有待嚴格立法和監管
致力於人臉識別或分析科技的研究人員指出,人臉識別有很多用途,比如尋找走失的兒童,追跡罪犯,更方便地使用智能手機和自動取款機,通過識別機器人的身份和情緒來幫助機器人與人類互動,在一些醫學研究中,還可以幫助診斷或遠程跟踪同意的參與者。
人臉識別技術有好處,但這些好處需要根據風險進行評估,這就是為什麼它需要得到適當和細緻的監管。
現時,許多研究人員以及穀歌、亞馬遜、IBM和微軟等公司都呼籲在人臉識別系統方面出臺更嚴格的監管措施。
麻塞諸塞州波士頓東北大學研究面部監控的電腦科學家、法學教授伍德羅·哈特佐格說視人臉識別技術為“史上最危險的發明”,說如果美國立法者允許公司使用人臉識別,他們應該編寫規則,從健身房到餐廳都應當禁止“面部指紋”的收集和儲存,並禁止將人臉識別技術與自動化決策(如預測性警務、廣告定位和就業)結合使用。
尚須謹慎研究和思考
密歇根州立大學東蘭辛分校的電腦科學家阿尼爾·賈恩說:“在我們的社會中,我們需要大量正當而合法的人臉和生物識別應用。”但一些科學家表示,研究人員也必須認識到,在人們不知情的情况下對人臉進行遠程識別或分類的科技從根本上是危險的,應該努力抵制其被用來控制人們的做法。
作為人工智慧領域的首要會議之一,神經資訊處理系統會議是今年首次要求進行這種道德考量,即提交有關人臉識別論文的科學家必須添加一份聲明,說明他們的工作中存在的倫理問題和潜在的負面後果。
此外,《自然機器智能》雜誌也在試圖要求一些機器學習論文的作者在文章中加入一項聲明,考慮到更廣泛的社會影響和倫理問題。
紐約伊薩卡市康奈爾大學從事科技倫理研究的社會學家凱倫·利維認為,研究人臉識別的學者意識到道德倫理問題,“感覺像是科學界真正的覺醒”。