亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

目錄
0. 這篇文章干了啥?
1. 論文信息
2. 摘要
3. 效果展示
4. 主要貢獻(xiàn)
5. 具體原理是啥?
6. 實(shí)驗(yàn)結(jié)果
7. 總結(jié)
首頁 科技周邊 人工智能 開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

Apr 03, 2024 pm 12:04 PM
數(shù)據(jù) 訓(xùn)練

0. 這篇文章干了啥?

提出了DepthFM:一個(gè)多功能且快速的最先進(jìn)的生成式單目深度估計(jì)模型。除了傳統(tǒng)的深度估計(jì)任務(wù)外,DepthFM還展示了在深度修復(fù)等下游任務(wù)中的最先進(jìn)能力。DepthFM效率高,可以在少數(shù)推理步驟內(nèi)合成深度圖。

下面一起來閱讀一下這項(xiàng)工作~

1. 論文信息

標(biāo)題:DepthFM: Fast Monocular Depth Estimation with Flow Matching

作者:Ming Gui, Johannes S. Fischer, Ulrich Prestel, Pingchuan Ma, Dmytro Kotovenko, Olga Grebenkova, Stefan Andreas Baumann, Vincent Tao Hu, Bj?rn Ommer

機(jī)構(gòu):MCML

原文鏈接:https://arxiv.org/abs/2403.13788

代碼鏈接:https://github.com/CompVis/depth-fm

官方主頁:https://depthfm.github.io/

2. 摘要

針對許多下游觀光任務(wù)和應(yīng)用至關(guān)重要。目前針對此問題的判別式方法受到模糊偽影的限制,而最先進(jìn)的生成方法由于其SDE性質(zhì)導(dǎo)致訓(xùn)練樣本速度緩慢。我們不是從噪聲開始,而是尋求從輸入圖像到深度圖像的直接映射。我們觀察到這可通過流匹配來有效地構(gòu)建,因?yàn)槠湓诮饪臻g中的直線軌跡提供了效率和高質(zhì)量。我們的研究表明,預(yù)先訓(xùn)練的圖像擴(kuò)散模型可用于作為流匹配深度模型的充分先驗(yàn)知識(shí)。在復(fù)雜自然場景的基準(zhǔn)測試中,盡管僅在少量合成數(shù)據(jù)上進(jìn)行訓(xùn)練,我們的輕量級方法以有利的低計(jì)算成本表現(xiàn)出最先進(jìn)的性能。

3. 效果展示

DepthFM是一種具有強(qiáng)零樣本泛化能力的快速推理流匹配模型,可利用強(qiáng)大的先驗(yàn)知識(shí),并且很容易地泛化到未知的真實(shí)圖像中。在合成數(shù)據(jù)上進(jìn)行訓(xùn)練后,模型可以很好地泛化到未知的真實(shí)圖像中,并對深度圖像進(jìn)行精確匹配。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

與其他最先進(jìn)的模型相比,DepthFM僅用一個(gè)函數(shù)評估就獲得了明顯更清晰的圖像。Marigold的深度估計(jì)耗時(shí)是DepthFM的兩倍,但無法生成相同粒度的深度圖。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

4. 主要貢獻(xiàn)

(1)提出了DepthFM,一種最先進(jìn)的、多功能的、快速的單目深度估計(jì)模型。除了傳統(tǒng)的深度估計(jì)任務(wù)外,DepthFM還展示了在深度修補(bǔ)和深度條件圖像合成等下游任務(wù)中的最新能力。

(2)展示了將強(qiáng)大的圖像先驗(yàn)從擴(kuò)散模型成功轉(zhuǎn)移到流匹配模型,幾乎不依賴于訓(xùn)練數(shù)據(jù),也不需要真實(shí)世界的圖像。

(3)表明,流匹配模型高效,并能在單個(gè)推理步驟內(nèi)合成深度圖。

(4)盡管僅在合成數(shù)據(jù)上進(jìn)行訓(xùn)練,但DepthFM在基準(zhǔn)數(shù)據(jù)集和自然圖像上表現(xiàn)出色。

(5)將表面法線損失作為輔助目標(biāo),以獲得更準(zhǔn)確的深度估計(jì)。

(6)除了深度估計(jì),還可可靠地預(yù)測其預(yù)測的置信度。

5. 具體原理是啥?

訓(xùn)練Pipeline。?訓(xùn)練受到流匹配和表面法向損失的限制:對于流匹配,使用數(shù)據(jù)依賴的流匹配來回歸地面真實(shí)深度與對應(yīng)圖像之間的向量場。此外,通過一個(gè)表面法向損失來實(shí)現(xiàn)幾何真實(shí)感。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

數(shù)據(jù)相關(guān)的流匹配:?DepthFM通過利用圖像到深度對,回歸出圖像分布和深度分布之間的直線向量場。這種方法在不犧牲性能的情況下促進(jìn)了高效的幾步推理。

從擴(kuò)散先驗(yàn)微調(diào):?作者展示了成功將強(qiáng)大的圖像先驗(yàn)從基礎(chǔ)圖像合成擴(kuò)散模型(Stable Diffusion v2-1)轉(zhuǎn)移到流匹配模型,幾乎不依賴訓(xùn)練數(shù)據(jù),并且不需要真實(shí)世界的圖像。

輔助表面法線損失:?考慮到DepthFM只在合成數(shù)據(jù)上進(jìn)行訓(xùn)練,大多數(shù)合成數(shù)據(jù)集提供了地面真實(shí)表面法線,將表面法線損失作為輔助目標(biāo),以增強(qiáng)DepthFM深度估計(jì)的準(zhǔn)確性。

6. 實(shí)驗(yàn)結(jié)果

DepthFM通過僅在63k純合成樣本上進(jìn)行訓(xùn)練展現(xiàn)出了顯著的泛化能力,并且能夠在室內(nèi)外數(shù)據(jù)集上進(jìn)行零- shot深度估計(jì)。表1定性地展示了DepthFM與最先進(jìn)的對應(yīng)模型的性能對比。雖然其他模型通常依賴于大量數(shù)據(jù)集進(jìn)行訓(xùn)練,但DepthFM利用了基于擴(kuò)散的基礎(chǔ)模型中固有的豐富知識(shí)。這種方法不僅節(jié)省了計(jì)算資源,而且強(qiáng)調(diào)了模型的適應(yīng)性和訓(xùn)練效率。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

對基于擴(kuò)散的Marigold深度估計(jì)、流匹配(FM)基準(zhǔn)和DepthFM模型進(jìn)行比較。每種方法僅使用一個(gè)集合成員進(jìn)行評估,并針對兩個(gè)常見基準(zhǔn)數(shù)據(jù)集進(jìn)行不同數(shù)量的函數(shù)評估(NFE)。與FM基準(zhǔn)相比,DepthFM集成了訓(xùn)練過程中的法線損失和數(shù)據(jù)相關(guān)的耦合。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

對于Marigold和的DepthFM模型在不同數(shù)量的功能評估中的定性結(jié)果。值得注意的是,通過一步推斷,Marigold并沒有給出任何有意義的結(jié)果,而DepthFM的結(jié)果已經(jīng)顯示了真實(shí)的深度圖。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

在Hypersim上進(jìn)行深度補(bǔ)全。左:給予部分深度。中:深度估計(jì)從給定的部分深度。右:真值深度。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

7. 總結(jié)

DepthFM,一種用于單目深度估計(jì)的流匹配方法。通過學(xué)習(xí)輸入圖像和深度之間的直接映射,而不是將正態(tài)分布去噪為深度圖,該方法明顯比當(dāng)前基于擴(kuò)散的解決方案更高效,同時(shí)仍提供細(xì)粒度的深度圖,而不會(huì)出現(xiàn)判別式范式的常見偽影。 DepthFM使用預(yù)先訓(xùn)練好的圖像擴(kuò)散模型作為先驗(yàn),有效地轉(zhuǎn)移到了深度流匹配模型中。因此,DepthFM只在合成數(shù)據(jù)上進(jìn)行了訓(xùn)練,但在推斷期間仍然能很好地推廣到自然圖像。此外,輔助表面法線損失已被證明能改善深度估計(jì)。 DepthFM的輕量級方法具有競爭力,速度快,并提供可靠的置信度估計(jì)。

對更多實(shí)驗(yàn)結(jié)果和文章細(xì)節(jié)感興趣的讀者,可以閱讀一下論文原文

以上是開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!的詳細(xì)內(nèi)容。更多信息請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本站聲明
本文內(nèi)容由網(wǎng)友自發(fā)貢獻(xiàn),版權(quán)歸原作者所有,本站不承擔(dān)相應(yīng)法律責(zé)任。如您發(fā)現(xiàn)有涉嫌抄襲侵權(quán)的內(nèi)容,請聯(lián)系admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣服圖片

Undresser.AI Undress

Undresser.AI Undress

人工智能驅(qū)動(dòng)的應(yīng)用程序,用于創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用于從照片中去除衣服的在線人工智能工具。

Clothoff.io

Clothoff.io

AI脫衣機(jī)

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智能換臉工具輕松在任何視頻中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的代碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

功能強(qiáng)大的PHP集成開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級代碼編輯軟件(SublimeText3)

使用ddrescue在Linux上恢復(fù)數(shù)據(jù) 使用ddrescue在Linux上恢復(fù)數(shù)據(jù) Mar 20, 2024 pm 01:37 PM

DDREASE是一種用于從文件或塊設(shè)備(如硬盤、SSD、RAM磁盤、CD、DVD和USB存儲(chǔ)設(shè)備)恢復(fù)數(shù)據(jù)的工具。它將數(shù)據(jù)從一個(gè)塊設(shè)備復(fù)制到另一個(gè)塊設(shè)備,留下?lián)p壞的數(shù)據(jù)塊,只移動(dòng)好的數(shù)據(jù)塊。ddreasue是一種強(qiáng)大的恢復(fù)工具,完全自動(dòng)化,因?yàn)樗诨謴?fù)操作期間不需要任何干擾。此外,由于有了ddasue地圖文件,它可以隨時(shí)停止和恢復(fù)。DDREASE的其他主要功能如下:它不會(huì)覆蓋恢復(fù)的數(shù)據(jù),但會(huì)在迭代恢復(fù)的情況下填補(bǔ)空白。但是,如果指示工具顯式執(zhí)行此操作,則可以將其截?cái)?。將?shù)據(jù)從多個(gè)文件或塊恢復(fù)到單

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)! 開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)! Apr 03, 2024 pm 12:04 PM

0.這篇文章干了啥?提出了DepthFM:一個(gè)多功能且快速的最先進(jìn)的生成式單目深度估計(jì)模型。除了傳統(tǒng)的深度估計(jì)任務(wù)外,DepthFM還展示了在深度修復(fù)等下游任務(wù)中的最先進(jìn)能力。DepthFM效率高,可以在少數(shù)推理步驟內(nèi)合成深度圖。下面一起來閱讀一下這項(xiàng)工作~1.論文信息標(biāo)題:DepthFM:FastMonocularDepthEstimationwithFlowMatching作者:MingGui,JohannesS.Fischer,UlrichPrestel,PingchuanMa,Dmytr

你好,電動(dòng)Atlas!波士頓動(dòng)力機(jī)器人復(fù)活,180度詭異動(dòng)作嚇壞馬斯克 你好,電動(dòng)Atlas!波士頓動(dòng)力機(jī)器人復(fù)活,180度詭異動(dòng)作嚇壞馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動(dòng)力Atlas,正式進(jìn)入電動(dòng)機(jī)器人時(shí)代!昨天,液壓Atlas剛剛「含淚」退出歷史舞臺(tái),今天波士頓動(dòng)力就宣布:電動(dòng)Atlas上崗。看來,在商用人形機(jī)器人領(lǐng)域,波士頓動(dòng)力是下定決心要和特斯拉硬剛一把了。新視頻放出后,短短十幾小時(shí)內(nèi),就已經(jīng)有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機(jī)器人的爆發(fā)年。網(wǎng)友銳評:機(jī)器人的進(jìn)步,讓今年看起來像人類的開幕式動(dòng)作、自由度遠(yuǎn)超人類,但這真不是恐怖片?視頻一開始,Atlas平靜地躺在地上,看起來應(yīng)該是仰面朝天。接下來,讓人驚掉下巴

iPhone上的蜂窩數(shù)據(jù)互聯(lián)網(wǎng)速度慢:修復(fù) iPhone上的蜂窩數(shù)據(jù)互聯(lián)網(wǎng)速度慢:修復(fù) May 03, 2024 pm 09:01 PM

在iPhone上面臨滯后,緩慢的移動(dòng)數(shù)據(jù)連接?通常,手機(jī)上蜂窩互聯(lián)網(wǎng)的強(qiáng)度取決于幾個(gè)因素,例如區(qū)域、蜂窩網(wǎng)絡(luò)類型、漫游類型等。您可以采取一些措施來獲得更快、更可靠的蜂窩互聯(lián)網(wǎng)連接。修復(fù)1–強(qiáng)制重啟iPhone有時(shí),強(qiáng)制重啟設(shè)備只會(huì)重置許多內(nèi)容,包括蜂窩網(wǎng)絡(luò)連接。步驟1–只需按一次音量調(diào)高鍵并松開即可。接下來,按降低音量鍵并再次釋放它。步驟2–該過程的下一部分是按住右側(cè)的按鈕。讓iPhone完成重啟。啟用蜂窩數(shù)據(jù)并檢查網(wǎng)絡(luò)速度。再次檢查修復(fù)2–更改數(shù)據(jù)模式雖然5G提供了更好的網(wǎng)絡(luò)速度,但在信號(hào)較弱

谷歌狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓(xùn)練最快選擇 谷歌狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓(xùn)練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準(zhǔn)測試中性能已經(jīng)超過Pytorch和TensorFlow,7項(xiàng)指標(biāo)排名第一。而且測試并不是在JAX性能表現(xiàn)最好的TPU上完成的。雖然現(xiàn)在在開發(fā)者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大模型會(huì)基于JAX平臺(tái)進(jìn)行訓(xùn)練和運(yùn)行。模型最近,Keras團(tuán)隊(duì)為三個(gè)后端(TensorFlow、JAX、PyTorch)與原生PyTorch實(shí)現(xiàn)以及搭配TensorFlow的Keras2進(jìn)行了基準(zhǔn)測試。首先,他們?yōu)樯墒胶头巧墒饺斯ぶ悄苋蝿?wù)選擇了一組主流

特斯拉機(jī)器人進(jìn)廠打工,馬斯克:手的自由度今年將達(dá)到22個(gè)! 特斯拉機(jī)器人進(jìn)廠打工,馬斯克:手的自由度今年將達(dá)到22個(gè)! May 06, 2024 pm 04:13 PM

特斯拉機(jī)器人Optimus最新視頻出爐,已經(jīng)可以在廠子里打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的“工位”上,揀啊揀啊揀:這次放出的視頻亮點(diǎn)之一在于Optimus在廠子里完成這項(xiàng)工作,是完全自主的,全程沒有人為的干預(yù)。并且在Optimus的視角之下,它還可以把放歪了的電池重新?lián)炱饋矸胖茫鞔蛞粋€(gè)自動(dòng)糾錯(cuò):對于Optimus的手,英偉達(dá)科學(xué)家JimFan給出了高度的評價(jià):Optimus的手是全球五指機(jī)器人里最靈巧的之一。它的手不僅有觸覺

美國空軍高調(diào)展示首個(gè)AI戰(zhàn)斗機(jī)!部長親自試駕全程未干預(yù),10萬行代碼試飛21次 美國空軍高調(diào)展示首個(gè)AI戰(zhàn)斗機(jī)!部長親自試駕全程未干預(yù),10萬行代碼試飛21次 May 07, 2024 pm 05:00 PM

最近,軍事圈被這個(gè)消息刷屏了:美軍的戰(zhàn)斗機(jī),已經(jīng)能由AI完成全自動(dòng)空戰(zhàn)了。是的,就在最近,美軍的AI戰(zhàn)斗機(jī)首次公開,揭開了神秘面紗。這架戰(zhàn)斗機(jī)的全名是可變穩(wěn)定性飛行模擬器測試飛機(jī)(VISTA),由美空軍部長親自搭乘,模擬了一對一的空戰(zhàn)。5月2日,美國空軍部長FrankKendall在Edwards空軍基地駕駛X-62AVISTA升空注意,在一小時(shí)的飛行中,所有飛行動(dòng)作都由AI自主完成!Kendall表示——在過去的幾十年中,我們一直在思考自主空對空作戰(zhàn)的無限潛力,但它始終顯得遙不可及。然而如今,

超級智能體生命力覺醒!可自我更新的AI來了,媽媽再也不用擔(dān)心數(shù)據(jù)瓶頸難題 超級智能體生命力覺醒!可自我更新的AI來了,媽媽再也不用擔(dān)心數(shù)據(jù)瓶頸難題 Apr 29, 2024 pm 06:55 PM

哭死啊,全球狂煉大模型,一互聯(lián)網(wǎng)的數(shù)據(jù)不夠用,根本不夠用。訓(xùn)練模型搞得跟《饑餓游戲》似的,全球AI研究者,都在苦惱怎么才能喂飽這群數(shù)據(jù)大胃王。尤其在多模態(tài)任務(wù)中,這一問題尤為突出。一籌莫展之際,來自人大系的初創(chuàng)團(tuán)隊(duì),用自家的新模型,率先在國內(nèi)把“模型生成數(shù)據(jù)自己喂自己”變成了現(xiàn)實(shí)。而且還是理解側(cè)和生成側(cè)雙管齊下,兩側(cè)都能生成高質(zhì)量、多模態(tài)的新數(shù)據(jù),對模型本身進(jìn)行數(shù)據(jù)反哺。模型是啥?中關(guān)村論壇上剛剛露面的多模態(tài)大模型Awaker1.0。團(tuán)隊(duì)是誰?智子引擎。由人大高瓴人工智能學(xué)院博士生高一釗創(chuàng)立,高

See all articles