最近,當億萬富翁埃隆·馬斯克談到他計劃創建“最大程度尋求真相的人工智能”以替代微軟支持的OpenAI公司的ChatGPT和谷歌的Bard 技術時,人們對新興人工智能(AI)工具存在偏見的擔憂重新浮出水面。
在本月早些時候,在接受福克斯新聞的塔克卡爾森采訪時,馬斯克表達了對他所說的ChatGPT被訓練說謊和政治正確等問題的擔憂。他將所謂的“TruthGPT”描述為第三種選擇,它不太可能“消滅人類”,并且與其他生成人工智能工具相比將提供“通往安全的最佳途徑”。
馬斯克啟動了他的名為“TruthGPT”的新人工智能項目,期望實現一個“最大限度地尋求真理的人工智能,試圖理解宇宙的本質。馬斯克沒有為他計劃中的聊天機器人提供時間表。但他已經成立了一家名為X.AI的新人工智能公司,據報道,他已經開始從ChatGPT的創建者OpenAI以及谷歌及其母公司Alphabet招聘人工智能員工。
同時,當然,人工智能偏見也會影響網絡安全風險。

這是一個歷久彌新的問題
馬斯克對卡爾森的評論呼應了他和其他數百名技術領袖、倫理學家和院士在3月份致人工智能公司的公開信中表達的一些觀點。這封信敦促參與人工智能研發的組織至少暫停六個月的工作,以便政策制定者有機會對這項技術的使用設置一些限制。在提出他們的論點時,馬斯克和其他人指出,有偏見的人工智能工具可能會充斥“我們的信息渠道,宣傳和謊言”是他們的主要擔憂之一。

國際隱私專家協會(IAPP)的數據策略師和科學家蘇珊娜·希克斯(Suzannah Hicks)表示,人工智能和機器學習中存在偏見的根本問題在于它源于人類的決策。所有AI模型都從極其龐大的數據集中學習,并且沒有明確編程以以特定方式響應。通常,偏差發生在人類選擇輸入模型的數據中。
“如果將有偏見的數據輸入模型,那么輸出也可能包含偏見,”希克斯說。“也可能通過數據遺漏或數據科學家選擇變量作為數據元素之外的其他事物的代理來引入偏差,”她說。例如,Hicks指出了一種機器學習算法,該算法可能會將用戶在瀏覽Netflix時的“點擊”次數作為積極指標的代理。“我可能會點擊電影來閱讀他們的描述并決定我不喜歡它,但模型可能會將點擊誤解為‘喜歡’的指示,”她說。
同樣,如果郵政編碼是AI工具學習模型中數據集的一部分,則使用AI確定信貸資格的貸款服務可能最終會拒絕向犯罪率高的郵政編碼(ZIP code)中的人提供不成比例的大量貸款。“在這種情況下,郵政編碼被用作人類行為的代理,這樣做會產生有偏見的結果,”希克斯說。
Coalfire副總裁安德魯·巴拉特(Andrew Barratt)表示,他自己對文本到圖像生成工具的測試提供了新興人工智能技術中存在偏見的一個例子。當他要求該工具生成一個快樂的人享受陽光的逼真圖像時,該工具只生成白種人的膚色和特征,盡管他提供的輸入不包含種族背景。他說,未來的一個擔憂是,尋求通過其技術獲利的人工智能平臺提供商可能會以有利于廣告商或平臺提供商的方式將偏見引入他們的模型。
Zimperium產品戰略副總裁Krishna Vishnubhotla表示,無論何時將一項服務貨幣化,您通常都希望通過該服務的任何進一步發展最大限度地發揮貨幣化潛力。通常這種進化會開始偏離最初的目標或進化路徑——馬斯克在接受卡爾森采訪時表達了對ChatGPT的擔憂。“這就是 Elon談到的問題,”Vishnubhotla說。
人工智能中的網絡安全偏見
雖然Musk等人沒有特別指出人工智能偏見對網絡安全的影響,但這個話題已經存在一段時間了,在ChatGPT時代值得重新審視。正如前IBM 和微軟高管、現擁有風險投資基金的Aarti Borkar在2019年Fast Company的開創性專欄中指出的那樣,隨著人工智能成為主要的安全工具,偏見是一種風險形式。
“當人工智能模型基于錯誤的安全假設或無意識的偏見時,它們不僅僅是威脅公司的安全態勢,” Borkar寫道。“經過調整以根據非安全因素確定良性或惡意網絡流量的AI可能會錯過威脅,從而使它們能夠進入組織的網絡。它還可以過度阻止網絡流量,禁止可能是關鍵業務的通信。”
隨著ChatGPT被熱情地引入網絡安全產品,錯誤的隱藏偏見的風險可能會進一步導致誤報、濫用隱私和存在漏洞的網絡防御。此外,網絡犯罪分子還可能毒害AI以影響安全結果。
“如果AI被黑客攻擊和操縱,以提供看似客觀但實際上隱藏得很好的偏見信息或扭曲觀點的信息,那么AI可能會成為一臺危險的……機器,”《哈佛商業評論》稱。ChatGPT為黑客可能破壞高級網絡安全軟件開辟了新途徑。對于一個已經因2022年全球數據泄露事件增加38%而深受打擊的行業,領導者必須認識到AI日益增長的影響并采取相應行動。

所以問題變成了是否真的可以有完全無偏見的人工智能,以及如何才能實現這一目標。
消除人工智能中的偏見
希克斯說,消除數據偏差的第一步是了解它在人工智能和機器學習中的潛力。這意味著了解如何以及哪些數據變量被包含在模型中。
許多所謂的“黑盒”模型,例如神經網絡和決策樹,旨在獨立學習模式并根據其數據集做出決策。她說,他們不需要用戶甚至開發人員完全理解它是如何得出特定結論的。
“人工智能和機器學習在很大程度上依賴于黑盒模型,因為它們可以處理大量數據并產生非常準確的結果,”希克斯指出。“但重要的是要記住它們就是黑匣子——我們不了解它們是如何得出所提供的結果的。”
去年10月世界經濟論壇博客文章的作者認為,開源數據科學(OSDS)——利益相關者以透明的方式合作——可能是消除人工智能偏見的一種方式。作者說,就像開源軟件改造軟件一樣,OSDS可以開放AI工具使用的數據和模型。他們寫道,當數據和人工智能模型開放時,數據科學家將有機會“識別錯誤和低效率,并創建替代模型,為不同的用例優先考慮各種指標”。

歐盟擬議的人工智能風險分類路徑
歐盟擬議的人工智能法案正在采取另一種方法。它呼吁建立一個人工智能分類系統,在該系統中,人工智能工具根據它們對健康、安全和個人基本權利的風險程度進行分類。存在不可接受的高風險的人工智能技術,例如實時生物識別ID系統, 將被禁止。那些被認為具有有限或最小風險的,例如視頻游戲和垃圾郵件過濾器,將受到一些基本的監督。自動駕駛汽車等高風險人工智能項目將受到嚴格的測試要求,并顯示遵守特定數據質量標準的證據。ChatGPT等生成式AI工具也將受到其中一些要求的約束。

美國NIST的方法
在美國,美國國家標準與技術研究院(NIST)建議利益相關者在尋找AI偏差來源時擴大他們尋找的范圍。NIST在一份關于需要標準來識別和管理人工智能偏見的特別出版物中表示,除了機器學習過程和用于訓練人工智能工具的數據外,該行業還應該考慮社會和人為因素。
NIST指出:“偏見對于AI來說既不是新事物也不是獨有的,并且不可能在AI系統中實現零偏見風險。” 為了降低部分風險,NIST將制定“識別、理解、測量、管理和減少偏差”的標準。
參考鏈接:
1.https://www.darkreading.com/remote-workforce/safer-ai-can-there-really-be-a-truthgpt
2.https://hbr.org/2023/04/the-new-risks-chatgpt-poses-to-cybersecurity
3.https://www.weforum.org/agenda/2023/03/the-european-union-s-ai-act-explained/#:~:text=The%20Artificial%20Intelligence%20Act%20aims,of%20AI%20for%20industrial%20use.%E2%80%9D
4.https://futureoflife.org/open-letter/pause-giant-ai-experiments/
關鍵基礎設施安全應急響應中心
黑白之道
GoUpSec
看雪學苑
D1Net
公安部網安局
安全圈
一顆小胡椒
看雪學苑
安全圈
GoUpSec
奇安信集團