繼一年前的ChatGPT之后,OpenAI最近又發布了新一款生成式人工智能模型Sora,將AI創作領域從文本及圖片擴展到了視頻。
那Sora的效果究竟如何?相信不少網友已經看過下面這些視頻截圖:


這些由Sora生成的逼真視頻畫面,對絕大多數人而言幾乎到了以假亂真的地步,很難一眼看出破綻。
這也引出了一個問題:如果有人拿Sora生成的視頻騙你說“這是真實發生的事情”,你會相信嗎?而如果是一段真實影像,故意說“這是Sora虛構的”,你又該如何辨別?
這不,海外社交平臺上,一段有關威爾?史密斯吃意大利面的視頻正在瘋傳,視頻畫面分為上下兩段:上半段顯示是一年以前的 AI 視頻,下半段則顯示現在的 AI 視頻。如畫面所反映的,一年前的AI將史密斯刻畫得“人不像人鬼不像鬼”,那么現在的AI已經看不出和真人的區別。

不少網友紛紛感嘆“Sora越來越厲害了”、”我們生活在一個模擬世界中“。
但事實卻是,視頻下半部分所謂的“現在的AI視頻“其實是由史密斯本人親自出演。他用自己的行動告訴大家,僅僅只需要讓大家意識到現在AI的超強實力,就已經能夠讓一個真實且普通的視頻游走于人們所認為的虛幻與現實之間。
也正因為這種迷惑性,再加上Sora目前仍未向公眾開放,海外社交平臺開始出現把真實視頻指為由Sora生成的亂象,比如在一位男士吃流心芝士漢堡的視頻中,不少網友表示這是由Sora 生成。

最終,紐約大學心理學和神經科學榮譽教授 Gary Marcus親自下場指出:”這并非Sora生成。“

也有網友最終找到了視頻來源,竟是5年前Youtube上的視頻。

不難看出,雖然目前99.9%的人還用不上Sora,但它的影響已經開始挑戰人們對現實的認知,如果一旦放開,可能會出現無法預料的后果。
加強AI管控勢在必行
毫無疑問,Sora是繼ChatGPT之后又一大震驚世界的AI技術革新,且不論它將對傳統影視傳媒行業帶來多大的沖擊,其背后可能引發的安全風險及倫理問題就已經開始引起各方關注。
央視財經報道指出,像Sora生成的深度偽造視頻可能會加劇錯誤和虛假信息的傳播,并援引意大利《共和國報》報道,稱視頻生成模型可以讓“名人或政客說從未說過的話、做從未做過的事”,比如利用模型克隆拜登、特朗普或其他競選美國總統,或2024年歐洲議會席位的人。

《經濟日報》文章指出,從ChatGPT到如今的Sora,人們驚嘆人工智能突破性進展,同時也伴隨著質疑和擔憂,特別是背后的倫理挑戰。Sora生成的視頻可以以假亂真。這是一把雙刃劍,一方面可以用于藝術創作,另一方面也可能被濫用于造假、欺騙,甚至顛覆人們對現實的認知。完善細化相關倫理規范,加強審查和監管,以及相關倫理教育和宣傳更顯迫切。只有正視Sora帶來的倫理挑戰,并加強倫理治理,才能確保人工智能技術造福人類,而不是成為威脅。
FreeBuf
Anna艷娜
Andrew
Andrew
Anna艷娜
Anna艷娜
Anna艷娜
Andrew
Andrew
X0_0X
Anna艷娜
Anna艷娜