隨著大數據挖掘、機器學習等算法的進步,擁有強大數據處理和預測分析能力的算法成為政府科學決策的重要工具。2022年6月頒布的《國務院關于加強數字政府建設的指導意見》要求建立健全大數據輔助科學決策機制,全面提升政府決策科學化水平,算法決策成為建設“敏捷高效、智能精準”數字政府的重要手段。但不容忽視的是,算法決策在提高決策科學性的同時,也會帶來算法歧視、偏見甚至算法操縱、利益俘獲等價值偏差問題,損害公共利益。公共領域算法決策必須直面算法價值偏差問題并加以妥善解決。

“算法黑箱”帶來算法決策價值偏差

“算法黑箱”指人們能看到輸入算法的數據和算法輸出的結果,但不具備專業知識的人無法理解算法的計算過程,算法的運行邏輯呈現“黑箱”狀態。在大數據時代,以人工神經網絡為代表的機器學習算法基于訓練數據進行自主學習生成算法模型,即使算法設計者也無法準確解釋算法模型的機理。當算法復雜性超越技術復雜性上升為認知復雜性,“算法黑箱”成為算法復雜化的必然結果,使算法呈現出一定程度的不可理解性,也使算法的價值導向在一定程度上脫離了人類的控制,產生一系列價值偏差問題。雖然算法的“黑箱”特性使算法的準確性與可解釋性成為一對不可兼得的矛盾,但不能一味追求算法的準確高效而忽視“算法黑箱”帶來的價值偏差問題。2021年頒布的《中華人民共和國數據安全法》要求“開展數據處理活動以及研究開發數據新技術,應當有利于促進經濟社會發展,增進人民福祉,符合社會公德和倫理”。2022年實施的《互聯網信息服務算法推薦管理規定》是我國一部針對算法的法律性文件,它的目的是“為了規范互聯網信息服務算法推薦活動,弘揚社會主義核心價值觀,維護國家安全和社會公共利益”。

黨的二十大報告指出,為民造福是立黨為公、執政為民的本質要求。數字政府建設的根本目的是實現好、維護好、發展好最廣大人民根本利益。因此,公共領域算法決策的首要屬性是公共性,只有符合公共價值導向,決策算法的準確高效才會有利于公共利益。面對算法可解釋性與準確性的固有矛盾,數字政府建設必須加強算法決策的全生態全流程治理,將“算法黑箱”帶來的價值偏差控制在最小范圍內,使算法決策始終遵循以人民為中心的公共價值導向。

避免算法決策價值偏差的幾點建議

明確開發者責任,在算法編寫時嵌入公共價值。算法是由人編寫的,必然會在編寫時植入了開發者的價值觀,應努力消除來自開發者的價值偏差。第一,加強開發者教育。制定開發者道德規范和行為守則,樹立社會主義核心價值觀,增強開發者的公共責任感和使命感,在算法設計時嵌入符合公共價值導向的算法倫理。第二,成立算法倫理委員會。要求開發者建立健全算法倫理自我審查機制,對算法的機制、模型、數據等進行定期審核,對算法的價值目標、嵌入倫理、技術局限性及可能的風險后果進行審查,努力做到“負責任的算法”。第三,推動行業自律。政府部門要制定出臺我國的算法行業公約,倡導開發者以為人類作貢獻和多數人受益的原則開發算法。

提升數據質量,在算法訓練時輸入公共價值。機器學習算法通過數據訓練而成,它會習得并強化訓練數據潛藏的價值偏見,要努力提升訓練數據的價值含金量,在數據源頭輸入公共價值。第一,注重數據的代表性。數字時代的一些群體如老年人、信息技術相對落后地區的人群等遭遇了數字鴻溝,訓練數據要有意識地增加他們的數據比例或權重,更加全面、真實地反映整體人群的情況,保證數據的非歧視性。第二,注重數據的價值性。海量的政務數據、公共數據和社會數據均可成為決策算法的訓練數據,但其中不乏不準確、不客觀甚至帶有價值偏見的數據。訓練數據必須經過數據清洗,剔除不符合公共價值的數據,消除數據中映射的價值偏見。第三,注重數據的隱私性。決策算法不僅要求決策結果符合公共價值導向,也要求算法訓練和使用過程遵循保護隱私等倫理原則,不得以公共利益為由侵犯個人隱私。訓練數據需對個人敏感數據進行脫敏處理,防止算法決策侵犯個人的人格尊嚴、人身與財產安全。

建立算法審查機制,在算法應用前核查價值導向。公共領域算法決策直接影響相關群體的利益分配,引入新的決策算法前必須核查算法的價值導向,實施算法事前審查制度。一,實行算法價值審查。數字政府成立算法審查機構或依托第三方算法審查機構,審核、評估、驗證算法機制機理、嵌入目標、意圖和價值標準以及決策結果等,運用沙盒測試等方法對算法的價值風險點、風險后果等進行專業評估,審查通過才能導入數字政府。第二,開展算法決策試驗。“算法黑箱”決定了算法審查無法掌握算法價值導向的全部信息,但可以在小范圍內試行決策算法開展政策試驗,通過試點獲取算法價值導向的真實信息,試點通過后才能大范圍推廣應用。第三,探索算法公開。借鑒政府信息公開,將不涉及保密、知識產權保護的決策算法向全社會公開,公開信息包括算法開發者、設計理念、邏輯機理、數據來源、運行參數及變量、主要功能、可能風險點等,動員社會大眾共同審查和監督決策算法的價值導向。

完善算法救濟與問責機制,在算法糾偏中矯正價值偏差。因為“算法黑箱”的存在,算法的事前審查無法保證發現所有的價值偏差問題,必須建立算法救濟及事后問責機制,及時糾正算法的價值偏差。第一,暢通算法決策救濟渠道。公眾在遭遇算法不公時可通過救濟渠道及時申訴,數字政府通過人工干預方式及時糾正算法決策對個人權益的侵害,同時根據投訴與反饋信息及時修正算法缺陷,通過算法迭代升級矯正價值偏差。第二,建立算法決策“熔斷機制”。數字政府應實時監測算法決策的申訴信息、輿情反饋與社會影響,當負面影響超過臨界值時立即啟動“熔斷機制”,暫停執行該決策算法及時挽回算法失當造成的不利影響。第三,完善算法問責機制。如果算法決策導致公共利益嚴重受損,立即啟動算法問責程序,清晰判定算法開發者、審查者和實施者的責任并施以懲戒,使責任方承擔應有的法律責任,倒逼各方以更高價值標準開發、審查和執行決策算法。

培養領導干部的算法素養,在算法把關時成為價值“守護人”。領導干部是算法決策中最重要的決策主體,是算法決策的價值守護人,必須提升領導干部的算法素養,守好算法決策的價值防線。第一,科學認知算法決策。領導干部一方面需要理解把握算法決策對數字政府建設的重要意義,消除對算法決策的排斥心理,另一方面需要清醒認識算法決策的潛在價值偏差問題,提升算法風險意識,培養理性認同感。第二,掌握算法相關知識。領導干部要主動學習算法的數據結構、推理模型、運行機理等知識,為識別、理解和批判性審視算法價值問題提供知識基礎。第三,對算法決策價值問題保持高度敏感性。領導干部要秉持以人民為中心的執政理念,科學審查決策算法的價值導向,時刻關注算法決策的社會影響,掌握算法決策的價值主導權,引導算法決策始終服務于最廣大人民的根本利益。