AI面部識別:需要監管,禁止供應商擅自使用
社交媒體上的自動照片標記功能快速且相當準確,但不太安全。最令人擔憂的是,社交網絡上的數據是公開的,并且在未經您同意的情況下被抓取用于私人 人工智能面部識別數據庫。生物識別數據的不受監管的收集和使用是一種風險,而網絡攻擊的增加加劇了這種風險。
隨著面部識別技術變得越來越普遍,您的面部簽名可能會出現在很多地方。您無法確定誰可以訪問您的生物識別信息。有些人可能會反駁說,該技術的有益實施將抵消數據隱私濫用所造成的任何損害。
誠然,面部識別系統在我們周圍創造了奇跡,從幫助執法部門尋找失蹤兒童、逮捕危險罪犯,到在機場和銀行證明您的身份。然而,在這些情況下,面部識別的缺陷也為濫用行為鋪平了道路,這次是以侵犯公民權利的形式。
正如我們將在下面看到的,必須解決面部識別帶來的數據隱私、公民權利和其他威脅,以避免弊大于利。
AI人臉識別的高風險應用
面部識別數據庫在執法中發揮著重要作用。執法機構經常收集被捕者的照片,并將其與當地、州和聯邦的面部識別數據庫進行比較。例如,FBI從多個州數據庫中追蹤到了超過 6.5 億張照片。
面部識別將走過這些特殊攝像頭的人的面部與觀察名單上的人的圖像進行匹配。觀察名單包含任何人的照片,包括未被懷疑有任何不當行為的人,這些圖像可以來自任何地方,甚至可以來自我們的社交媒體帳戶。例如,任何帶有人名標簽的照片都會成為 Facebook 數據庫的一部分,該數據庫也可用于面部識別。
數據獲取方式很重要
懷著用尖端技術更好地裝備執法部門的愿景,Clearview AI 展示了 其包含超過 100 億張圖像的龐大數據庫。該公司還透露,任何用戶都可以上傳一個人的照片,然后該軟件可能會泄露該人的身份。
《紐約時報》2020 年初對 Clearview AI 的一項調查顯示,該公司一直在挖掘在線圖片以建立龐大的面部識別數據庫。最初,Clearview AI 聲稱其應用程序僅供執法部門和少數私營公司使用。但《紐約時報》的文章明確指出,該公司一直歪曲其業務范圍和愿景。
BuzzFeed News報道稱,一份泄露的 Clearview AI 客戶名單涉及美國數百個警察部門和聯邦機構,包括 ICE 和海關與邊境保護局。泄露的名單中還包括 NBA、百思買、沃爾瑪和梅西百貨等各種令人吃驚的買家。盡管現在已有幾家公司與 Clearview AI 保持了距離,但其中幾家表示已經進行了試運行,僅此而已。
此后,這家初創公司繼續面臨大量訴訟。在法國、奧地利、希臘、意大利和英國提起的投訴稱,該公司收集和記錄數據(包括從公共網站自動提取的面部圖像)的方法違反了歐洲隱私法。
征服 Clearview AI
Clearview AI 的工具遭到了科技組織和美國當局的嚴厲批評。盡管谷歌、Twitter、YouTube、Facebook 和 LinkedIn 等平臺發送了停止函,但 Clearview 首席執行官 AI Hoan Ton-That 表示,該公司擁有第一修正案的權利,可以在其系統中使用公開信息。
然而,2021 年 8 月,伊利諾伊州法院做出了有利于美國公民自由聯盟 (ACLU) 反對這家科技初創企業的裁決。法官表示,Clearview AI 不能利用第一修正案作為針對這起訴訟的辯護,只有在伊利諾伊州居民同意的情況下才能繼續其業務。
無意識偏見的風險
同樣,亞馬遜基于云的面部識別工具 Rekognition 也是全國范圍內日益反對的目標。在ACLU 2018 年進行的一項測試中,該軟件使用包含 25,000 張照片的數據庫錯誤地將 28 名國會議員識別為犯罪分子。
亞馬遜批評了這一結果,聲稱面部識別系統的置信閾值被降低了。但一年后,馬薩諸塞州 ACLU 發現 Rekognition錯誤得將27 名新英格蘭職業運動員與照片相匹配。美國公民自由聯盟發現,這兩項測試都與有色人種不匹配。
麻省理工學院媒體實驗室的研究人員發現, 面部識別算法在識別白人男性方面比識別女性和有色人種更準確,因為數據庫包含更多有關白人男性的數據,從而產生了意想不到的偏見。 ACLU 的結果證實了這一擔憂,因為在第一次測試中,Rekognition 的錯誤匹配中有近 40% 是針對有色人種的,盡管他們只占國會的 20%。
亞馬遜、IBM 和微軟暫停銷售人工智能面部識別
在 Rekognition 顯示出對有色人種存在偏見后,亞馬遜受到了密切關注。作為回應,該公司暫停警方使用其面部識別技術一年。然而,2020 年 6 月,亞馬遜發布了一篇令人驚訝的博客文章,其中提到允許 Thorn、國際失蹤與受虐兒童中心和 Marinus Analytics 等組織使用 Rekognition 來幫助營救人口販運受害者并使失蹤兒童與家人團聚。
不久之后,IBM和微軟宣布將不再向警方提供面部識別技術,因為執法中使用的人工智能系統需要進行偏見測試。 2021 年 5 月,亞馬遜延長了警察使用的暫停時間,直至另行通知。
AI人臉識別的現狀
面部識別可能是對個人隱私的另一種侵蝕。讓我們從兩個因素來評估這項技術:歧視和隱私。
1. 歧視:面部識別永遠不會 100% 準確。兒童、女性和有色人種的錯誤率高達 35%,而白人男性的準確率為 99%。可以說,隨著時間的推移,人工智能將會進步并使面孔“多樣化”,但就目前而言,它使少數族裔面臨風險。
2. 隱私:繼《生物識別信息隱私法》之后,《商業面部識別隱私法》于 2019 年 3 月提交美國參議院。這些法案要求公司在收集個人生物識別信息之前獲得個人的明確同意。面部識別技術的提供商和國家組織需要注意這些有關個人隱私的法律以及應采取的措施。
Clearview AI 的早期投資者之一 David Scalzo 表示,
“我得出的結論是,由于信息不斷增加,因此永遠不會有隱私。法律必須確定什么是合法的,但你不能禁止技術。當然,這可能會導致反烏托邦的未來或其他什么,但你不能禁止它。”
我們不能忽視面部識別領域的突破。但考慮到它收集和存儲的數據量,對面部識別的擔憂不應被忽視。如果技術供應商不自愿克制自己,我們就希望立法迫使他們解決隱私、歧視和其他濫用問題。
