合理構建算法安全秩序
近日,北京互聯網法院作出首例涉及算法風控系統引發人身權益侵權糾紛的生效判決。經審理,法院認定被告某征婚交友平臺運營者實施算法進行風控盡到了合理注意義務并采取預防措施,并無主觀過錯,不構成侵權,駁回了原告李某的訴訟請求。該案是一起經典的算法侵權糾紛案件,與算法主體責任、用戶權利以及算法侵權救濟等議題密切相關。
此案中,算法風控系統判定原告李某具有網絡詐騙風險,是基于用戶在平臺上與其他用戶的聊天記錄短期內多次被檢測到“金融”“基金”“加微信”等“殺豬盤”詐騙案件所涉高頻詞匯。因此平臺對其賬戶進行了封號處理,并向其他網友提示“該賬號可能存在異常”“不要與之發生金錢來往”等警示信息。依據民法典和個人信息保護法的相關規定,用戶在平臺上的聊天記錄屬于個人信息。算法風控系統通過檢測用戶聊天記錄關鍵詞識別異常點,并自動予以標簽化警示的行為,即屬于典型的以自動化方式檢索、使用個人信息的處理行為。
依據個人信息保護法相關規定,處理個人信息應當保證個人信息的質量,避免因個人信息不準確、不完整對個人權益造成不利影響。在大數據時代,算法已經成為“第三只手”,實質上發揮著資源調配與機會供給的功能。如果平臺掌握的個人信息不準確、不完整,與之相關的算法決策就可能對用戶產生不利影響。因此強調個人信息的質量,要求數據的完整與準確,已經成為全球立法共識。
此外,個人信息保護法也確立了自動化決策結果的公平、公正原則,《互聯網信息服務算法推薦管理規定》也明確規定了推薦算法的公正公平和科學合理原則,《新一代人工智能治理原則——發展負責任的人工智能》更是在安全可控原則下明確指出人工智能系統應不斷提升可靠性、可控性、抗干擾性。由此可見,無論是基于公共利益依法履行監管責任,還是為了推進平臺日常業務的正常開展,平臺對其運行的算法風控系統均具有質量保證義務。平臺應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果,避免因模型設計缺陷導致不當處理個人信息從而對用戶產生不利影響。
在實踐中,反欺詐檢測等風控模型在區分噪音和異常點之間的確面臨技術挑戰。不過,需要明確的是,盡管平臺算法風控系統具有行為目的和主觀意圖的正當性,但如果算法風控系統缺乏精細化判定異常風險的能力,則表明該算法設計還需要進行完善和優化。
考慮到利用個人信息開展自動化決策的信息應用場景屬于高風險處理活動,我國立法從事前、事中、事后的全生命周期視角賦予用戶一系列權利。首先,法律保護用戶對個人信息被處理的決定權和選擇權。因此在隱私政策中,平臺應以清晰易懂的語言,向用戶真實、完整地披露其個人信息可能被用于算法風控,確保用戶在充分知情的前提下自愿、明確作出同意。
其次,通過自動化決策方式作出對用戶權益有重大影響的決定時,用戶有權要求平臺作出解釋和說明,并有權拒絕僅通過自動化決策的方式作出決定。
最后,當用戶認為平臺因個人信息不準確、不完整,或者因算法模型存在缺陷,影響自動化決策結果的公平、公正,并對個人產生不利影響時,可以提出異議并獲得救濟。救濟的方式包括要求平臺對算法決策進行人工干預,復核自動化決策結果是否基于準確、完整的個人信息公平、公正地作出,并可以要求更正錯誤或者不當的決策結果。
算法社會已經全面來臨。算法作為新型基礎設施正擴展式嵌入到公共和商業場景之中。如何構建鼓勵算法行業發展與規制不當運用的算法治理秩序是司法裁判和法律創制共同關注的話題。在這起案件中,法院確立了認定平臺合理注意義務的評估框架,對于構建共治共享的算法安全秩序具有重要意義。但與此同時,平臺企業也應當意識到作為算法設計者和運行者,還應積極采取措施開發和設計可靠性和可控性更強的算法,以保證算法決策的質量與實效。