<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    OpenAI推新款大模型Sora,可根據文本生成60秒視頻

    Andrew2024-02-18 14:35:43

    ·Sora可根據文本指令生成60秒視頻,可生成具有多個角色、特定類型運動及精確主題和背景細節的復雜場景,并在單個生成視頻中創建多個鏡頭,準確保留角色和視覺風格。


    ·OpenAI正在教AI理解和模擬運動中的物理世界,目標是訓練模型來“幫助人們解決需要現實世界互動的問題”。不過,Sora在提示空間細節方面會混淆左右,也無法理解因果關系的具體實例。


    Sora生成的視頻:幾只巨大的猛犸象穿過一片白雪覆蓋的草地,長毛在風中輕輕飄動,遠處是白雪覆蓋的樹木和大山。


    開發出熱門聊天機器人ChatGPT后,OpenAI繼續在生成式人工智能上玩出新花樣。2月16日,OpenAI推出新的AI大模型Sora,該文生視頻大模型可通過快速文本提示創建“逼真”和“富有想象力”的60秒視頻。


    OpenAI表示,Sora能夠根據文本指令生成長達60秒的視頻,同時保持視覺質量并遵守用戶提示。Sora可生成具有多個角色、特定類型運動以及精確主題和背景細節的復雜場景。該模型對語言有深刻理解,能夠準確領會提示,生成令人信服的角色。Sora還可以在單個生成視頻中創建多個鏡頭,準確保留角色和視覺風格。


    Sora生成的視頻:一只貓叫醒了正在睡覺的主人。


    “這個模型不僅能理解用戶在提示中要求什么,還能理解這些東西在現實世界中是如何存在的。”OpenAI表示,正在教人工智能理解和模擬運動中的物理世界,目標是訓練模型來“幫助人們解決需要現實世界互動的問題”。


    除了能夠僅從文本指令生成視頻外,該模型還能夠利用現有的靜止圖像從中生成視頻,精確地將圖像內容動畫化,也可以利用現有視頻進行擴展或填充缺失的幀。

    Sora有時會生成不合情理的動作,譬如在跑步機上倒著跑步。


    不過,Sora仍在開發中,存在明顯“弱點”,特別是在提示空間細節方面會混淆左右,也無法理解因果關系的具體實例,比如制作了一個視頻,視頻中有人咬了一口餅干,但之后餅干上沒有咬痕。



    Sora生成的視頻:五只小狼在一條礫石路上嬉戲追逐,周圍長滿了草。Sora的缺點是動物或人會憑空出現,特別是在包含許多實體的場景中。


    Sora生成的視頻中,動物或人會憑空出現,特別是在包含許多實體的場景中。此外,Sora難以精確描述隨時間推移發生的事件,例如跟蹤攝像機的特定軌跡。


    Sora生成的視頻:一把普通的塑料椅子在沙漠中被發現,人們小心翼翼地挖掘并撣去沙子。在這個例子中,Sora沒有將椅子建模為一個剛性物體,導致不準確的物理交互。


    對于模型安全性的考量,OpenAI表示,計劃與一個專家團隊合作測試最新模型,密切關注錯誤信息、仇恨內容和偏見等。OpenAI還表示正在開發幫助檢測誤導性信息的工具,比如檢測分類器可以判斷視頻是何時由Sora生成的。其文本分類器可檢查并拒絕違反使用政策的文本輸入提示,例如極端暴力、性內容、仇恨圖像、名人肖像等。“我們還開發了魯棒性的圖像分類器,用于審查每個生成視頻的幀,以幫助確保它在顯示給用戶之前符合我們的使用政策。”


    OpenAI表示,Sora將首先提供給網絡安全教授,以評估產品的危害或風險。一些視覺藝術家、設計師和電影制作人也能獲得Sora的訪問權限,以此收集關于創意專業人士如何使用Sora的反饋。


    Sora生成的視頻:在“賽博朋克”背景下,一個機器人的生活故事。


    市場研究公司ABI research高級分析師里斯?海登(Reece Hayden)表示,盡管多模態大模型并不新鮮,而且文生視頻的模型已經存在,但OpenAI聲稱Sora具有的長度和準確性使其與眾不同。海登認為,這類人工智能模型可能會對數字娛樂市場產生重大影響,新的個性化內容將在各個渠道傳播,“一個明顯的用例是電視,創造簡短的場景來支持敘事。”

    文本分類
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    一.文本分類文本分類旨在對文本集按照一定的分類體系或標準進行自動分類標記,屬于一種基于分類體系的自動分類。牛亞峰老師將傳統的文本分類流程歸納如下圖所示。在傳統的文本分類中,基本上大部分機器學習方法都在文本分類領域有所應用。本文將采用詞向量、TFIDF兩種方式進行實驗。
    本文針對GDPR中的第13章對隱私政策進行合規性研究。 GDPR第13章對APP隱私政策進行了以下如圖1所示的9項規定,例如1. Collect Personal Info → Data Retention Period 代表如果APP要收集用戶信息,則必須告知用戶數據保留期限
    論文證明了利用僅有少量超參數的CNN在多個NLP任務上取得較好的成果;預訓練的向量是可用于各種分類任務的“通用”特征提取器。
    從本專欄開始,作者正式研究Python深度學習、神經網絡及人工智能相關知識。一.RNN文本分類1.RNN循環神經網絡英文是Recurrent Neural Networks,簡稱RNN。假設有一組數據data0、data1、data2、data3,使用同一個神經網絡預測它們,得到對應的結果。RNN常用于自然語言處理、機器翻譯、語音識別、圖像識別等領域。本文將采用詞向量、TFIDF兩種方式進行實驗。
    近日,OpenAI緊急發布了一個AI文本檢查工具,能夠檢測輸入內容是否是使用ChatGPT等人工智能工具生成的。
    ·Sora可根據文本指令生成60秒視頻,可生成具有多個角色、特定類型運動及精確主題和背景細節的復雜場景,并在單個生成視頻中創建多個鏡頭,準確保留角色和視覺風格。
    Python人工智能第10篇介紹TF實現CNN圖像分類任務
    在釣魚攻擊中,攻擊者可以使用ChatGPT生成虛假電子郵件或消息,更好地偽裝成受害者所信任的個人或組織,從而獲取受害者的個人信息。這種行為對個人和組織的信息安全構成威脅。ChatGPT可以用于監控文本和消息內容本身,自動化檢測機器生成內容,保護用戶的信息和隱私,采取措施來限制ChatGPT的濫用,以確保其在網絡安全領域的積極作用。
    深度神經網絡(dnn)在過去的十年中發展迅速,并已廣泛應用在現實生活中。與此同時,DNN模型已被證明容易受到安全和隱私攻擊。最近引起廣泛關注的一種攻擊是“后門攻擊”。具體地說,對手毒害了目標模型的訓練集,用一個附加的秘密觸發器將所有的輸入誤導為指定的目標類。之前的后門攻擊主要集中在計算機視覺(CV)應用上,如圖像分類
    AI就像一個黑匣子,能自己做出決定,但是人們并不清楚其中緣由。需要了解AI如何得出某個結論背后的原因,而不是僅僅接受一個在沒有上下文或解釋的情況下輸出的結果。在本文中,我將介紹6個用于可解釋性的Python框架。
    Andrew
    暫無描述
      亚洲 欧美 自拍 唯美 另类