亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

搜索

Pika放大招:今天起,視頻和音效可以“一鍋出”了!

WBOY
發(fā)布: 2024-03-11 13:00:15
轉(zhuǎn)載
785人瀏覽過

就在剛剛,Pika發(fā)布了一項新功能:

很抱歉我們之前一直處于靜音狀態(tài)。

今天起,大家可以給視頻無縫生成音效了——Sound Effects!

???AI 智能聊天, 問答助手, AI 智能搜索, 免費無限量使用 DeepSeek R1 模型???

Pika放大招:今天起,視頻和音效可以“一鍋出”了!

生成的方式有兩種:

  • 要么給一句Prompt,描述你想要的聲音;
  • 要么直接讓Pika根據(jù)視頻內(nèi)容自動生成。

并且Pika非常自信地說到:“如果你覺得音效聽起來很棒,那是因為它確實如此”。

車鳴聲、廣播聲、鷹叫聲、刀劍聲、歡呼聲……可謂是聲聲不息,并且從效果上來看,也是高度與視頻畫面匹配。

不僅是發(fā)布的宣傳片,Pika官網(wǎng)現(xiàn)在也放出了多個demo。

例如無需任何prompt,AI只是看了眼烤培根的視頻,便可以配出毫無違和感的音效。

再如給一句prompt:

Super saturated color, fireworks over a field at sunset.
超飽和色彩,日落時田野上的煙火。

Pika便可以在生成視頻的同時配上聲音,從效果中不難看出,煙花綻放的瞬間,聲音卡點也是相當?shù)木珳省?/p>

大周末的發(fā)布這樣一個新功能,網(wǎng)友們在高呼Pika“夠卷、夠Awesome”的同時,也有人認為:

它正在為多模態(tài)AI創(chuàng)作收集所有的“無限寶石”。

Pika放大招:今天起,視頻和音效可以“一鍋出”了!

那么Pika的Sound Effects具體要如何操作,我們繼續(xù)往下看。

給視頻“make some noise”

Pika給視頻生成音效的操作也是極!其!簡!單!

例如只需一句prompt,視頻和音效就能“一鍋出”

Mdieval trumpet player.
中世紀小號手。

Pika放大招:今天起,視頻和音效可以“一鍋出”了!

相比于此前生成視頻的操作,現(xiàn)在只需開啟下方“Sound effects”按鈕即可。

第二種操作方式,就是在生成了視頻過后,可以單獨給它配音。

例如在下面這個視頻,點擊下方的“Edit”,再選擇“Sound Effects”

Pika放大招:今天起,視頻和音效可以“一鍋出”了!

然后可以描述一下自己想要的聲音,例如:

Race car revving its engine.
賽車正在發(fā)動引擎。

然后短短幾秒后,Pika就可以根據(jù)描述和視頻生成音效,而且還是6種聲音可選的那種!

值得一提的是,Sound Effects功能目前只對超級合作者(Super Collaborator)和Pro用戶開放測試。

不過Pika也表示:“我們很快就會向所有用戶推出該功能!”

Pika放大招:今天起,視頻和音效可以“一鍋出”了!

然后現(xiàn)在已經(jīng)有一批網(wǎng)友在開始測試這個Beta版本了,并且表示:

音效聽起來和視頻很相配,而且增加了很多氣氛。

什么原理?

至于Sound Effects背后的原理,雖然Pika此次并沒有公開,但在此前Sora大火之后,語音初創(chuàng)公司ElevenLabs就出過類似的配音功能。

當時,英偉達高級科學家Jim Fan就對此做過較為深入的分析。

他認為,AI學習準確的視頻到音頻映射還需要對潛在空間中的一些“隱式”物理進行建模。

Pika放大招:今天起,視頻和音效可以“一鍋出”了!

他詳細說明了端到端Transformer在模擬聲波時需要解決的問題:

  1. 識別每個物體的類別、材料和空間位置。
  2. 識別物體間的高階互動:例如,是木棍、金屬或是鼓面?以什么速度擊打?
  3. 識別環(huán)境:是餐廳、空間站、還是黃石公園?
  4. 從模型的內(nèi)部記憶中檢索物體和環(huán)境的典型聲音模式。
  5. 使用“軟性”的、通過學習得到的物理規(guī)則來組合和調(diào)整聲音模式的參數(shù),甚至即時創(chuàng)造全新的聲音。這有點像游戲引擎中的“程序化音頻”。
  6. 如果場景很復雜,模型需要根據(jù)物體的空間位置疊加多個聲音軌道。

所有這些都不是顯式的模塊,而是通過大量的(視頻,音頻)對的梯度下降學習來實現(xiàn)的,這些視頻和音頻對在大多數(shù)互聯(lián)網(wǎng)視頻中自然地時間對齊。注意力層將在它們的權(quán)重中實現(xiàn)這些算法,以滿足擴散目標。

除此之外,Jim Fan當時表示英偉達的相關工作并沒有這樣高質(zhì)量的AI音頻引擎,不過他推薦了一篇MIT五年前的論文The Sound of Pixels

Pika放大招:今天起,視頻和音效可以“一鍋出”了!

感興趣的小伙伴可以戳文末鏈接詳細了解一下。

One More Thing

多模態(tài)這件事上,LeCun在最新訪談中的觀點也很火爆,他認為:

語言(文本)是低寬帶的:小于12字節(jié)/秒。現(xiàn)代LLM通常使用1x10^13個雙字節(jié)標記(即 2x10^13 字節(jié))進行訓練。一個人閱讀大約需要 100000 年(每天 12 小時)。

視覺的帶寬要高得多:約20MB/s。兩條視神經(jīng)中的每一條都有 100 萬根神經(jīng)纖維,每根神經(jīng)纖維每秒攜帶約10個字節(jié)。一個4歲的孩子在清醒狀態(tài)下大約是16000小時,換算成字節(jié)大約是1x10^15。

視覺感知的數(shù)據(jù)帶寬大約是文本語言數(shù)據(jù)帶寬的1600萬倍。

一個4歲孩子看到的數(shù)據(jù),是互聯(lián)網(wǎng)上公開的所有文本訓練的最大LLM數(shù)據(jù)的50倍。

Pika放大招:今天起,視頻和音效可以“一鍋出”了!

因此,LeCun總結(jié)到:

如果不讓機器從高帶寬的感官輸入(如視覺)中學習,我們絕對不可能達到人類水平的人工智能

那么,你贊成這種觀點嗎?

以上就是Pika放大招:今天起,視頻和音效可以“一鍋出”了!的詳細內(nèi)容,更多請關注php中文網(wǎng)其它相關文章!

最佳 Windows 性能的頂級免費優(yōu)化軟件
最佳 Windows 性能的頂級免費優(yōu)化軟件

每個人都需要一臺速度更快、更穩(wěn)定的 PC。隨著時間的推移,垃圾文件、舊注冊表數(shù)據(jù)和不必要的后臺進程會占用資源并降低性能。幸運的是,許多工具可以讓 Windows 保持平穩(wěn)運行。

下載
來源:51CTO.COM網(wǎng)
本文內(nèi)容由網(wǎng)友自發(fā)貢獻,版權(quán)歸原作者所有,本站不承擔相應法律責任。如您發(fā)現(xiàn)有涉嫌抄襲侵權(quán)的內(nèi)容,請聯(lián)系admin@php.cn
最新問題
開源免費商場系統(tǒng)廣告
最新下載
更多>
網(wǎng)站特效
網(wǎng)站源碼
網(wǎng)站素材
前端模板
關于我們 免責申明 意見反饋 講師合作 廣告合作 最新更新
php中文網(wǎng):公益在線php培訓,幫助PHP學習者快速成長!
關注服務號 技術交流群
PHP中文網(wǎng)訂閱號
每天精選資源文章推送
PHP中文網(wǎng)APP
隨時隨地碎片化學習
PHP中文網(wǎng)抖音號
發(fā)現(xiàn)有趣的

Copyright 2014-2025 http://ipnx.cn/ All Rights Reserved | php.cn | 湘ICP備2023035733號