2023年11月26日,美國、英國、澳大利亞和其他15個國家發布了幫助保護人工智能模型不被篡改的全球指導方針,敦促企業使其模型"設計安全"的文件,概述了人工智能公司在開發或使用人工智能模型時應如何處理其網絡安全問題,因為他們聲稱,在這個快節奏的行業中,"安全往往是次要考慮因素"。

指導方針主要包括一般性建議,如嚴格控制人工智能模型的基礎設施,在模型發布前后對其進行監控,以及對員工進行網絡安全風險培訓。

但人工智能領域的某些爭議問題卻未被提及,包括對圖像生成模型的使用、深度偽造或數據收集方法以及在訓練模型中的使用應采取哪些可能的控制措施--在這個問題上,多家人工智能公司曾因版權侵權而遭到起訴。

美國國土安全部部長亞歷杭德羅-馬約卡斯(Alejandro Mayorkas)在一份聲明中說:"我們正處于人工智能發展的拐點,人工智能很可能是我們這個時代最具影響力的技術。"網絡安全是建立安全、可靠和值得信賴的人工智能系統的關鍵"。

在這些指導方針出臺之前,政府間還采取了其他舉措對人工智能進行了權衡,包括政府和人工智能公司本月初在倫敦舉行的人工智能安全峰會,以協調人工智能發展協議。

與此同時,歐盟正在制定其人工智能法案的細節,該法案將對該領域進行監督,美國總統喬-拜登(Joe Biden)也于10月發布了一項行政命令,制定了人工智能安全和安保標準--盡管這兩項行政命令都遭到了人工智能行業的反對,聲稱它們可能會扼殺創新。

新的"設計安全"指導方針的其他共同簽署國包括加拿大、法國、德國、以色列、意大利、日本、新西蘭、尼日利亞、挪威、韓國和新加坡。包括OpenAI、微軟、Google、Anthropic和Scale AI在內的人工智能公司也為制定該指導方針做出了貢獻。