11月20日消息,Meta 19 日宣布為 Facebook 和 Instagram 推出兩款基于 AI 的圖像編輯工具,分別是“Emu Edit”和“Emu Video”,適用領域包括照片和視頻,目前 Meta 公布了這兩項 AI 工具的更多信息。
官方介紹稱,Emu Edit 模型僅用文字指令就可以準確編輯圖像,而通過分解文字轉視頻(Text-to-Video,T2V)的生成過程,開發(fā)團隊公布了一種名為 Emu Video 的方法,可以改善最終生成視頻的品質和多樣性。
據悉,Emu Edit 號稱是一種創(chuàng)新的影像編輯方法,目的是要簡化各種影音操作任務,為視頻編輯提供更多功能與更高的精確度。Emu Edit 可以接受用戶指令,進行各種形式的編輯,包括區(qū)域和全局編輯、移除和添加背景,也能夠調整顏色并進行矢量圖轉換,或進行圖像構成元素的檢測和分割。
Meta 表示,Emu Edit 把視覺任務作為指令,納入到所生成模型中,進而在視頻生成和編輯中,提供更好的控制能力。研究人員指出,當前的圖像編輯模型,通常會過度修改圖像,或是修改不足,而 Emu Edit 的優(yōu)勢在于能夠準確按照指令進行編輯。
Meta 使用了 1000 萬個合成數據集訓練 Emu Edit,號稱是目前同類中規(guī)模最大的數據集,從而帶來了更好的圖像編輯能力,其中每個樣本都包含圖像輸入、任務描述,以及目標輸出圖像??墒鼓P椭覍嵉貓?zhí)行指令,產生“比當前所有競品都要好的結果”。
而 Emu Video 是一種簡單且高效的文字轉視頻生成方法,該方法運用擴散模型,并以 Emu Edit 為基礎。開發(fā)團隊解釋,這種通過生成視頻的架構能夠應對外界各種輸入方式,包括文字、圖像、圖文組合等,此外 Emu Video 也能接受文字類提示詞,將用戶提供的圖像“動畫化”,從而提供了“超越過去模型的能力”。
Emu Video 將影片生成過程拆分為兩個步驟,首先是根據文字提示生成圖像,然后基于文字和生成圖像產生視頻。這種拆分步驟的影片生成方法,讓研究人員可以有效地訓練生成模型。
研究人員進一步解釋,Emu Video 與過去 Make-A-Video 等需要一系列深度生成模型的研究不同,Emu Video 更簡單,僅使用 2 個擴散模型,就能生成 512x512 分辨率、每秒 16FPS、長 4 秒鐘的視頻。
Meta 援引評估數據,證明 Emu Video 生成的視頻品質以及“遵循提示詞的忠實程度”相對業(yè)內競品更好。在品質方面,有 96%受訪者偏好 Emu Video 而非此前的 Make-A-Video 方案,而對于“提示詞的忠實度”方面,Emu Video 獲得了 85%受訪者的青睞。
- 美科技七巨頭遭特朗普關稅血洗 市值蒸發(fā)14萬億
- 特斯拉市值一夜蒸發(fā)超6400億元,美股科技“七巨頭”陷入調整區(qū)間
- 阿里巴巴于上海新設智信普惠科技公司,布局多領域技術服務
- 馬化騰短暫登頂中國富豪榜,騰訊科技與股價雙輪驅動成關鍵
- 本地生活賽道:2025年紅海變“血?!保脚_競逐白熱化
- 義烏哪吒小商品熱賣:緊跟《哪吒2》熱潮,一天賣幾百套
- 美恢復接收中國包裹,貿易政策突變引發(fā)物流界震蕩
- DeepSeek或再掀波瀾,可能對美股市場造成新一輪打擊
- 谷歌股價暴跌:收入增長放緩,人工智能支出引投資者擔憂
- 華為去年銷售收入超8600億元:ICT基礎設施穩(wěn)健,新業(yè)務快速發(fā)展
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。