<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    AI 狂飆,如何為科技野馬縛韁?

    一顆小胡椒2023-04-10 09:45:08

    近日,特斯拉首席執行官埃隆·馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克等上千名科技界大佬簽署公開信,呼吁暫停訓練強于OpenAI公司GPT-4的人工智能(AI)系統。公開信的發布再一次將人工智能推上風口浪尖,觸發人們對人工智能成為“脫韁野馬”擔憂的同時,也給各國的監管政策制定上了“發條”。

    人工智能將帶來生存風險?

    這封公開信由非營利組織“生命未來研究所(Future of Life Institute)”撰寫,其使命是“減少強大技術帶來的全球災難性和生存風險”。

    信中寫道:“只有在我們確信人工智能的影響是積極的、風險是可控的情況下,才應該開發更強大的人工智能系統。因此,我們呼吁所有人工智能實驗室立即暫停至少6個月訓練比GPT-4更強大的人工智能系統。人工智能實驗室和獨立專家應該利用這段時間,共同開發和實施一套高級人工智能設計和開發的共享安全協議,這些協議由獨立的外部專家嚴格審計和監督。”

    這封信還澄清說:“這并不意味著人工智能發展總體上處于暫停狀態,只是從危險的競賽退回到具有緊急功能、不可預測的黑箱模型。”它指的是微軟和谷歌等大型科技公司之間的人工智能競賽。

    盡管這封信一開始有許多虛假簽名者,被指加劇人工智能炒作、簽名造假以及歪曲論文等,還有很多人工智能研究人員和專家公開對這封信中的描述和提議的方法表達了反對意見。但這一事件的火爆無疑代表了人工智能技術狂飆突進的當下,人們對人工智能倫理的擔憂。

    公開信中提出了幾個問題:“我們是否應該自動化所有工作,包括那些讓人有成就感的工作?我們是否應該培養非人類思維,這些思維最終可能超過人類智慧并取代我們?我們應該冒著失去對文明控制的風險繼續開發人工智能嗎?”

    紐約大學心理學和神經科學教授加里·馬庫斯說:“這封信并不完美,但其精神是正確的。”

    監管挑戰迫在眉睫

    這樣的警告給各國監管機構帶來壓力,要求它們闡明將人工智能嚴加控制的計劃。作為公開信的簽字人之一,研究機構Mila創始人兼科學主任約書亞·本吉奧表示,6個月的暫停時間對于包括政府在內的治理機構理解、審計和驗證人工智能系統是必要的,可以確保這些系統對公眾是安全的。事實上,許多國家近年來一直致力于制定人工智能領域的法律、法規。

    聯合國教科文組織敦促各國“毫不拖延地”應用關于人工智能技術的全球道德框架,包含最大限度發揮人工智能優勢并減少它帶來的風險。

    歐盟正在加快推動人工智能立法。歐盟內部市場委員蒂埃里·布雷頓表示,這項立法將幫助人們消除對新近大熱的ChatGPT聊天機器人乃至人工智能技術風險的擔憂。

    2021年4月,歐盟委員會提出了《人工智能法案》條例草案。2022年12月6日,歐盟理事會通過了關于《人工智能法案》的共同立場,旨在確保投放到歐盟市場并在歐盟范圍內使用的人工智能系統是安全的。

    這一提案對人工智能系統的定義、禁止人工智能應用的領域、人工智能系統的高風險分類、與執法機關有關的范圍和規定、支持創新的措施等方面進行了闡述。歐盟希望該法案既能推動人工智能的投資和創新,又能促進保障公民基本權利和安全的現行法律得到有效執行和加強。

    負責數字政策和競爭事務的歐委會執行副主席瑪格麗特·韋斯塔格在草案提出時說,即將出臺的歐洲規則將有助于制定“新的全球規范,確保人工智能可以被信任”。

    歐盟理事會表示,這樣法案將與其他倡議齊頭并進,包括旨在加快歐洲人工智能投資的《人工智能協調計劃》。

    在英國,對人工智能挑戰的最新回應是一份91頁的白皮書——《支持創新的人工智能監管方法》。該文件由英國科學、創新和技術部發布,稱它提出了一個“世界領先”的人工智能監管方法,是“新國家藍圖的一部分,即打造世界級監管以推動負責任的創新并保持公眾對這一革命性技術的信任”。

    該文件稱“政府將避免可能扼殺創新的強硬立法,并采取適應性的方法來監管人工智能。政府不會把人工智能治理的責任交給一個新的單一監管機構,而是授權現有的監管機構——如健康和安全執行委員會、平等和人權委員會以及競爭和市場管理局——提出量身定制的、針對具體情況的方法,以適應人工智能在其管理領域的實際應用”。

    無論如何,監管都是設法實現一種平衡:一方面注重人工智能發展帶來的所有好處;另一方面是充分尊重公民的基本權利。

    行到路口,左右觀望

    值得注意的是,公開信引起廣泛的關注,不僅僅在于它提出的問題,而是它引發的更加充滿分歧的討論。

    普林斯頓大學計算機科學副教授阿爾溫德·納拉亞南表示,計算機是否會取代人類并接管人類文明,這是一個非常遙遠的問題……它分散了我們對當前問題的注意力。人工智能被整合到人們的工作中,是減少了對某些職業的需求,而不是會讓我們“過時”。他表示:“這些可以算是合理的長期擔憂,但它們已被反復提及,轉移了人們對當前危害的注意力,包括非常真實的信息安全和安全風險!而消除這些安全風險需要我們精誠合作。但不幸的是,這封信中的炒作,包括對人工智能能力和事關人類生存風險的夸大,可能導致人工智能模型被更多地束縛,使應對風險變得更加困難。”

    意大利政府日前對人工智能態度的搖擺也是人們關于人工智能治理困惑的一個例證。在指責開發ChatGPT的OpenAI公司未能遵守用戶數據保護法規后,意大利負責監管數據的機構3月31日宣布將禁止在其境內使用ChatGPT。

    根據意大利監管機構的說法,ChatGPT及其母公司OpenAI違反了《歐洲通用數據保護條例》中的部分規定。這使得意大利當局決定禁止(目前只是暫時)該公司在意大利境內開展業務。

    但兩天后,意大利副總理兼基礎設施與可持續交通部部長馬泰奧·薩爾維尼就在社交媒體上表示,意大利對ChatGPT的禁令似乎有些過分了,并建議盡快提出合適的解決方案。

    他認為禁令可能損害意大利的商業和創新,并希望解除禁令。他說:“每一次技術革命都會帶來巨大的變化、風險和機遇。通過監管者和立法者之間的國際合作來對其進行控制和監管是正確的,但不能將其封鎖。”

    英國政府似乎也對人工智能的認知存在不足。致力于把英國建成“科技超級大國”的英國首相里希·蘇納克將人工智能定義為“未來技術”。但根據英國科學、創新和技術部(DSIT)的數據,人工智能領域已經為英國提供了約5萬個工作崗位,僅在2022年就為國民經濟貢獻了37億英鎊(約合46億美元)。

    事實上,人工智能早已不是“未來技術”,它已經站在我們面前,并帶著潛在的危險,確實有必要在發生嚴重問題前對其進行監管。

    獨立研究機構Ada Lovelace研究所的人工智能法律和監管副主任邁克爾·伯特韋斯特爾認為,擬議的戰略“相對于挑戰的緊迫性和規模,力量不足”。他還警告說,《支持創新的人工智能監管方法》白皮書中的建議“缺乏法定基礎。這意味著監管者、開發者或人工智能系統的用戶沒有新的法律義務,未來監管者可能只有最低限度的責任。如果不對現有的監管機構進行大量投資,英國也將很難有效地監管人工智能在各個領域的不同用途”。

    即使是在人工智能監管方面走得最快的歐盟,目前,歐洲議會的議員也未就《人工智能法案》條例草案的基本原則達成一致。他們爭議的核心是監管是否會阻礙創新,即如何平衡數據隱私與避免扼殺人工智能的創新和投資。其中最具爭議的領域是決定哪些人工智能系統將被歸為“高風險”。這些討論也代表了目前對于人工智能發展和監管的主要爭議:一方面是對公民基本權利的關注;另一方面是對監管約束與創新產生沖突的擔憂。

    科技人工智能
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    習近平談人工智能
    2020-12-07 15:09:10
    智能科技,改變生活。從5G、大數據到智慧交通、智慧城市,各種智能科技應用正在以前所未有的速度和廣度影響社會發展、改變人類生活方式。習近平總書記高度重視人工智能技術發展,本文梳理了習近平總書記部分講話,與大家一同學習。
    7月16日—18日,“創新賦能·科技自強”——第十一屆吳文俊人工智能科學技術獎頒獎盛典暨2021中國人工智能產業年會隆重舉辦。在頒獎盛典上,共有66個獲獎項目及個人受到表彰獎勵。其中,網絡空間安全技術論壇聚焦“人工智能發展與數據安全挑戰”,由電子科技大學和安恒信息承辦。數據安全工作需要監管機構以及社會企業共同努力,最大化發揮數據價值,強化數據安全治理。
    這有助于防止利用生成式人工智能開展社會輿論操縱、認知對抗等擾亂網絡社會秩序的行為發生。因此,在生成式人工智能技術早期探索階段,應當適度降低內容審查方面的要求,只要求人工智能服務提供者在現有技術可及的監測能力之合理范圍內對人工智能生成內容承擔管控義務。
    白皮書從如何落實全球人工智能治理共識的角度出發,聚焦于可信人工智能技術、產業和行業實踐等層面,分析了實現可控可靠、透明可釋、隱私保護、明確責任及多元包容的可信人工智能路徑,并對可信人工智能的未來發展提出了建議。
    當前,人工智能技術迅猛發展,并被廣泛應用于軍事領域。由于人工智能新技術本身的不確定性及其治理機制的不完善,人工智能技術的武器化應用將可能弱化人類對戰爭的把控權,增加戰爭發生的可能性,沖擊現有國際秩序的穩定性,挑戰國際法規的基本原則,甚至引發復合型危機。對此,國際層面、區域層面、國家層面的各相關行為體已開始著手探尋相關治理機制。但目前國際社會在全面禁止人工智能武器方面尚未達成共識,各國政府應創造性地
    近日,觀成科技宣布獲得新一輪戰略融資,本輪投資方為泰岳梧桐資本,這是繼今年2月份完成Pre-A輪融資后的又一次融資。
    與此同時,生成式人工智能被濫用帶來的數據泄露、虛假信息等風險挑戰也紛至沓來,各國陸續推出或完善針對生成式人工智能的監管方案。從這些要求看,《辦法》基本涵蓋了生成式人工智能服務在應用過程中可能暴露出來的安全及倫理問題。三是在模型輸出信息出現違法內容時,要求提供者采取模型優化訓練等措施進行整改,體現了《辦法》與生成式人工智能技術特點及關鍵環節的高度適應。
    4月14日,人民出版社發布了第三批三種重點領域國家安全普及讀本,包括《國家海外利益安全知識百問》《國家人工智能安全知識百問》《國家數據安全知識百問》。據了解三本讀本由中央有關部門組織編寫,簡要介紹了前述三個領域的發展情況、與國家安全的關系以及社會關注的技術前沿問題。陳鵬鳴稱,接下來將陸續推出其他領域國家安全讀本。
    多無人系統協同在給社會創造價值的過程中存在著諸多安全隱患,如無人車的交通事故,無人機的擾航、恐怖襲擊,機器人造成工人失業等。我國人工智能新時代戰略實施以來迎來了很大起色,但關于多無人系統中的人工智能安全問題仍未給出明確解決方案。歐盟方面同樣在智能無人系統安全上展開了積極研究以及政策制定,歐盟各成員國都紛紛出臺法律法規以規范無人機運行。
    一顆小胡椒
    暫無描述
      亚洲 欧美 自拍 唯美 另类