<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    理性應對ChatGPT網絡安全威脅

    VSole2023-02-24 10:17:02

    聊天機器人ChatGPT的最初功能定位是以貼近人類溝通的方式進行人機互動,但是用戶在使用過程中發現,ChatGPT除了能與用戶進行正常對話外,甚至能夠很好地完成代碼、論文、短評、新聞、翻譯、郵件等內容的創作,并讓人難以分辨其創作者為真人還是機器人。

    ChatGPT作為一種現象級產品,表現出的強大功能展現了人工智能技術對社會人力資源分配和產業結構優化的潛在市場價值。但與任何一項新技術應用一樣,ChatGPT也會具有兩面性,在提升人類生活品質和工作效率的同時,也有可能因其濫用而產生一些負面的社會效果,特別是其有可能產生網絡安全威脅:

    第一,ChatGPT的代碼編寫功能將拓展黑客攻擊的技術工具,使得原有的網絡攻擊呈現更加龐大的規模化趨勢。ChatGPT能夠輔助黑客高效完成惡意軟件的編寫,如此一來,針對關鍵信息基礎設施有組織、有規模的網絡安全攻擊頻次將會增加,同時,過去以大型企業為主要目標的攻擊模式可能轉變為囊括大中小型企業的攻擊模式。

    第二,ChatGPT的信息編寫功能能夠輔助網絡詐騙分子生成規模化、低成本的網絡釣魚軟件,并且生成的詐騙信息由于具有智能化特征,使得被詐騙者識別信息真偽的難度增加。

    第三,ChatGPT的信息編寫功能可能導致網絡虛假信息泛濫,并且網絡用戶更加難以甄別這些信息的真偽,由此網絡空間輿情治理壓力勢必增加。

    針對這些問題,有專家學者提出應對ChatGPT“制定專門立法”“制定配套措施”。實際上,ChatGPT的市場成功不等于人工智能產業取得了突破性發展。考慮到ChatGPT目前能夠處理的工作任務具有鮮明的重復性、模板性特征,因此,監管機構沒有必要立即將ChatGPT技術監管作為現階段網絡空間治理的核心工作任務,否則,我國立法模式會陷入“出現一項新技術,制定一項新規定”的邏輯怪圈。

    其實,我國已先后頒布了網絡安全法、《網絡信息內容生態治理規定》、《互聯網信息服務算法推薦管理規定》等法律法規,針對人工智能技術和算法技術濫用規定了詳細的法定義務和監管體系,足以應對短期內ChatGPT可能導致的網絡安全風險。現階段,我國監管部門可以充分利用現有法律制度,加強對ChatGPT相關產業的監管;未來在經驗成熟時,可以考慮啟動人工智能技術應用領域的立法,以應對各種潛在的安全風險。

    首先,重點監管大型企業研發活動,落實人工智能技術標準。ChatGPT對于算法、數據乃至服務器的需求量驚人,具備開發類似產品的主體大多僅限于超大型互聯網企業或技術公司。在相關產品投入市場之前,可以利用算法備案機制,對具備影響網絡安全和國家安全可能性的產品或服務進行安全性審查。并且,相較于對用戶使用行為進行監管而言,從源頭上對研發企業進行監管成效更顯著,且研發企業也有技術能力對惡意軟件代碼片段編寫功能進行限制。

    其次,明確研發機構、網絡平臺經營者對于人工智能產品應用的安全風險評估義務。ChatGPT及其類似產品本身不具有社會危害性,關鍵在于以不當方式使用可能導致一定的損害結果。針對ChatGPT可能引發的網絡釣魚郵件等網絡詐騙風險,應當明確作為“危險制造者”的研發機構、網絡平臺經營者在此類產品投入市場之前進行安全風險評估,確保風險可控。

    最后,需要關注以人工智能信息審核技術規制人工智能可能誘發的虛假信息泛濫風險。為了避免ChatGPT等人工智能產品大量生成難以通過自動化批量審核的虛假信息內容,監管機構以及網絡平臺經營者可能需要進一步提升監管技術,充分利用人工智能技術的審核智能化特征,根據ChatGPT這類產品的發展水平和生成信息內容特征,鼓勵行業協會、大型企業或第三方專業機構積極推進人工智能違規信息審核產品的研發和推廣。(文 | 北京航空航天大學副教授,北京科技創新中心研究基地

    網絡安全人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    本周四,在拉斯維加斯舉行的BlackHat黑客大會上,拜登政府宣布啟動為期兩年的“人工智能網絡安全挑戰賽”(AIxCC),探索如何基于AI開發顛覆性的下一代網絡安全解決方案,用來保護美國最重要的軟件,包括運行互聯網和關鍵基礎設施的計算機代碼。
    近年來機器學習的快速發展使人工智能的潛在能力顯而易見。在十幾次采訪過程中,研究人員、投資者、政府官員和網絡安全高管絕大多數表示,他們正以懷疑和興奮的心情關注生成式人工智能的防御潛力。他們的懷疑源于一種懷疑,即營銷炒作歪曲了該技術的實際功能,并且認為AI甚至可能引入一組新的、人們知之甚少的安全漏洞。但這種懷疑被真正的興奮所掩蓋和緩和。這在很大程度上是由于行業領導者OpenAI發布其生成AI產品的積極性。
    近日, NVIDIA 發布了一款零信任網絡安全平臺。利用該平臺的一整套功能,網絡安全行業可構建實時保護客戶數據中心的解決方案。
    日前,全球開源安全組織OWASP(Open Web Application Security Project)發布了《AI大模型應用網絡安全治理檢查清單(V1.0)》(以下簡稱為《檢查清單》)。在這份長達32頁的《檢查清單》中,較完整地介紹了AI大模型部署應用時的安全原則、部署策略和檢查對照表,適用于那些希望在快速發展的AI領域中保持領先地位的組織和機構,使他們能夠在制定大型語言模型戰略時,專注于
    2015—2021年兩會有關網絡安全的提議提案整理,內容涵蓋“物聯網安全”、“工業互聯網安全”、“數據安全”、“網絡安全治理”等方面
    當今的網絡安全行業嚴重依賴傳統方法(主要是人工驅動的方法),隨著基于大語言模型的生成式人工智能變革浪潮襲來,首當其沖的網絡安全行業正面臨一次技術和方法的顛覆性革命,不想被淘汰的網絡安全從業人員需要重新點亮技能樹。
    2022年是人工智能和機器學習技術在網絡安全領域取得重大突破的一年,也是企業CISO們開始利用人工智能技術突破網絡安全“不對稱戰爭”困局的一年。
    奇安信提報的“支撐零信任安全架構的人工智能信任決策系統”項目在本屆網安周人工智能安全產業發展分論壇上,成功入選人工智能安全典型實踐案例。
    近年來,以AI、大數據技術以及第五代移動通信網絡技術等為代表的新一輪數字革命迅速發展。然而,人們在享受自動駕駛、高頻金融交易、刷臉支付等AI新技術發展帶來的便利同時,AI不斷進化、自我訓練式成長和變異的特征,以及基于機器學習和深度搜索提升攻擊效果的能力,也帶來了新的攻擊面和攻擊手段,數字經濟時代下的AI安全機遇與挑戰,已成為時下最具研究價值的熱點之一。
    當地時間12月18日,作為“數字歐洲計劃”的一部分,歐盟委員會為包括網絡安全人工智能在內的數字解決方案提供了 7.627 億歐元的資金。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类