亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

目錄
0. 這篇文章做了啥?
#針對許多下游觀光任務(wù)和應(yīng)用至關(guān)重要。目前針對此問題的判別式方法受到模糊偽影的限制,而最先進(jìn)的生成方法由於其SDE性質(zhì)導(dǎo)致訓(xùn)練樣本速度緩慢。我們不是從雜訊開始,而是尋求從輸入影像到深度影像的直接映射。我們觀察到這可透過流匹配來有效地構(gòu)建,因?yàn)槠湓诮饪臻g中的直線軌跡提供了效率和高品質(zhì)。我們的研究表明,預(yù)先訓(xùn)練的影像擴(kuò)散模型可用於作為流匹配深度模型的充分先驗(yàn)知識。在複雜自然場景的基準(zhǔn)測試中,儘管僅在少量合成資料上進(jìn)行訓(xùn)練,我們的輕量級方法以有利的低計(jì)算成本表現(xiàn)出最先進(jìn)的性能。
DepthFM是一種具有強(qiáng)零樣本泛化能力的快速推理流匹配模型,可利用強(qiáng)大的先驗(yàn)知識,並且很容易地泛化到未知的真實(shí)影像中。在合成資料上進(jìn)行訓(xùn)練後,模型可以很好地泛化到未知的真實(shí)影像中,並對深度影像進(jìn)行精確匹配。
#(1)提出了DepthFM,一種最先進(jìn)的、多功能的、快速的單目深度估計(jì)模型。除了傳統(tǒng)的深度估計(jì)任務(wù)外,DepthFM還展示了在深度修補(bǔ)和深度條件影像合成等下游任務(wù)中的最新能力。
6. Результаты экспериментов
#7.Резюме
首頁 科技週邊 人工智慧 開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

Apr 03, 2024 pm 12:04 PM
數(shù)據(jù) 訓(xùn)練

0. 這篇文章做了啥?

提出了DepthFM:一個(gè)多功能且快速的最先進(jìn)的生成式單目深度估計(jì)模型。除了傳統(tǒng)的深度估計(jì)任務(wù)外,DepthFM還展示了在深度修復(fù)等下游任務(wù)中的最先進(jìn)能力。 DepthFM效率高,可以在少數(shù)推理步驟內(nèi)合成深度圖。

下面一起來閱讀這項(xiàng)工作~

##1. 論文資訊

標(biāo)題:DepthFM: Fast Monocular Depth Estimation with Flow Matching

作者:Ming Gui, Johannes S. Fischer, Ulrich Prestel, Pingchuan Ma, Dmytro Kotovenko, Olga Grebenkova, Stefan Andreas Baumann, Vincent Tao Hu, Bj?rn Ommer

. #原文連結(jié):https://arxiv.org/abs/2403.13788

程式碼連結(jié):https://github.com/CompVis/depth-fm

官方首頁:https:// depthfm.github.io/

2. 摘要

#針對許多下游觀光任務(wù)和應(yīng)用至關(guān)重要。目前針對此問題的判別式方法受到模糊偽影的限制,而最先進(jìn)的生成方法由於其SDE性質(zhì)導(dǎo)致訓(xùn)練樣本速度緩慢。我們不是從雜訊開始,而是尋求從輸入影像到深度影像的直接映射。我們觀察到這可透過流匹配來有效地構(gòu)建,因?yàn)槠湓诮饪臻g中的直線軌跡提供了效率和高品質(zhì)。我們的研究表明,預(yù)先訓(xùn)練的影像擴(kuò)散模型可用於作為流匹配深度模型的充分先驗(yàn)知識。在複雜自然場景的基準(zhǔn)測試中,儘管僅在少量合成資料上進(jìn)行訓(xùn)練,我們的輕量級方法以有利的低計(jì)算成本表現(xiàn)出最先進(jìn)的性能。

3. 效果展示

DepthFM是一種具有強(qiáng)零樣本泛化能力的快速推理流匹配模型,可利用強(qiáng)大的先驗(yàn)知識,並且很容易地泛化到未知的真實(shí)影像中。在合成資料上進(jìn)行訓(xùn)練後,模型可以很好地泛化到未知的真實(shí)影像中,並對深度影像進(jìn)行精確匹配。

與其他最先進(jìn)的模型相比,DepthFM僅用一個(gè)函數(shù)評估就獲得了明顯更清晰的圖像。 Marigold的深度估計(jì)耗時(shí)是DepthFM的兩倍,但無法產(chǎn)生相同粒度的深度圖。 開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!4. 主要貢獻(xiàn)

#(1)提出了DepthFM,一種最先進(jìn)的、多功能的、快速的單目深度估計(jì)模型。除了傳統(tǒng)的深度估計(jì)任務(wù)外,DepthFM還展示了在深度修補(bǔ)和深度條件影像合成等下游任務(wù)中的最新能力。

(2)展示了將強(qiáng)大的圖像先驗(yàn)從擴(kuò)散模型成功轉(zhuǎn)移到流匹配模型,幾乎不依賴訓(xùn)練數(shù)據(jù),也不需要真實(shí)世界的圖像。

(3)表明,流匹配模型高效,並能在單一推理步驟內(nèi)合成深度圖。

(4)儘管僅在合成資料上進(jìn)行訓(xùn)練,但DepthFM在基準(zhǔn)資料集和自然影像上表現(xiàn)出色。

(5)將表面法線損失作為輔助目標(biāo),以獲得更準(zhǔn)確的深度估計(jì)。

(6)除了深度估計(jì),還可可靠地預(yù)測其預(yù)測的置信度。

5. 具體原理是啥?

訓(xùn)練Pipeline。

?訓(xùn)練受到流匹配和表面法向損失的限制:對於流匹配,使用資料依賴的流匹配來回歸地面真實(shí)深度與對應(yīng)影像之間的向量場。此外,透過一個(gè)表面法向損失來實(shí)現(xiàn)幾何真實(shí)感。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!資料相關(guān)的流匹配:

?DepthFM透過利用影像到深度對,回歸出影像分佈和深度分佈之間的直線向量場。這種方法在不犧牲性能的情況下促進(jìn)了高效的幾步推理。

從擴(kuò)散先驗(yàn)微調(diào):

?作者展示了成功將強(qiáng)大的圖像先驗(yàn)從基礎(chǔ)圖像合成擴(kuò)散模型(Stable Diffusion v2-1)轉(zhuǎn)移到流匹配模型,幾乎不依賴訓(xùn)練數(shù)據(jù),並且不需要真實(shí)世界的圖像。

輔助表面法線損失:

?考慮到DepthFM只在合成資料上進(jìn)行訓(xùn)練,大多數(shù)合成資料集提供了地面真實(shí)表面法線,並將表面法線損失作為輔助目標(biāo),以增強(qiáng)DepthFM深度估計(jì)的準(zhǔn)確性。

6. Результаты экспериментов

DepthFM демонстрирует значительную способность к обобщению, обучаясь только на 63 тысячах чисто синтетических образцов, и может выполнять обучение нулевого уровня на наборах данных внутри и снаружи. Оценка глубины выстрела. В таблице 1 качественно показано сравнение производительности DepthFM с соответствующими современными моделями. В то время как другие модели часто полагаются на большие наборы данных для обучения, DepthFM использует богатые знания, присущие базовой модели, основанной на диффузии. Этот метод не только экономит вычислительные ресурсы, но и подчеркивает адаптивность и эффективность обучения модели.

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

Сравнение оценки глубины Marigold на основе диффузии, эталонного теста Flow Matching (FM) и модели DepthFM. Каждый метод оценивается с использованием только одного члена ансамбля и с различным количеством оценок функций (NFE) на двух общих эталонных наборах данных. По сравнению с базовой линией FM, DepthFM объединяет нормальные потери и связь, зависящую от данных во время обучения.

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

Качественные результаты для моделей Marigold и DepthFM при различном количестве функциональных оценок. Стоит отметить, что Marigold не дает никаких значимых результатов посредством одношагового вывода, в то время как результаты DepthFM уже показывают реальную карту глубины.

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

Выполните глубокое завершение в Hypersim. Слева: придание глубины. Средняя: Глубина оценивается на основе заданной частичной глубины. Справа: Истинная глубина.

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

#7.Резюме

DepthFM, метод сопоставления потоков для монокулярной оценки глубины. Путем изучения прямого сопоставления между входным изображением и глубиной, а не шумоподавления нормального распределения в карте глубины, этот подход значительно более эффективен, чем текущие решения на основе диффузии, но при этом обеспечивает мелкозернистые карты глубины без общих артефактов дискриминационной парадигмы. . DepthFM использует предварительно обученную модель диффузии изображения в качестве априорной, эффективно передавая ее в модель сопоставления глубокого потока. Таким образом, DepthFM обучается только на синтетических данных, но при этом хорошо обобщает естественные изображения во время вывода. Кроме того, было показано, что нормальные потери на вспомогательной поверхности улучшают оценку глубины. Облегченный подход DepthFM является конкурентоспособным, быстрым и обеспечивает надежные достоверные оценки.

Читатели, которых интересуют дополнительные экспериментальные результаты и подробности статьи, могут прочитать оригинальную статью

以上是開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!的詳細(xì)內(nèi)容。更多資訊請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

使用ddrescue在Linux上恢復(fù)數(shù)據(jù) 使用ddrescue在Linux上恢復(fù)數(shù)據(jù) Mar 20, 2024 pm 01:37 PM

DDREASE是一種用於從檔案或區(qū)塊裝置(如硬碟、SSD、RAM磁碟、CD、DVD和USB儲存裝置)復(fù)原資料的工具。它將資料從一個(gè)區(qū)塊設(shè)備複製到另一個(gè)區(qū)塊設(shè)備,留下?lián)p壞的資料區(qū)塊,只移動好的資料區(qū)塊。 ddreasue是一種強(qiáng)大的恢復(fù)工具,完全自動化,因?yàn)樗诨謴?fù)操作期間不需要任何干擾。此外,由於有了ddasue地圖文件,它可以隨時(shí)停止和恢復(fù)。 DDREASE的其他主要功能如下:它不會覆寫恢復(fù)的數(shù)據(jù),但會在迭代恢復(fù)的情況下填補(bǔ)空白。但是,如果指示工具明確執(zhí)行此操作,則可以將其截?cái)唷①Y料從多個(gè)檔案或區(qū)塊還原到單

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)! 開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)! Apr 03, 2024 pm 12:04 PM

0.這篇文章乾了啥?提出了DepthFM:一個(gè)多功能且快速的最先進(jìn)的生成式單目深度估計(jì)模型。除了傳統(tǒng)的深度估計(jì)任務(wù)外,DepthFM還展示了在深度修復(fù)等下游任務(wù)中的最先進(jìn)能力。 DepthFM效率高,可以在少數(shù)推理步驟內(nèi)合成深度圖。以下一起來閱讀這項(xiàng)工作~1.論文資訊標(biāo)題:DepthFM:FastMonocularDepthEstimationwithFlowMatching作者:MingGui,JohannesS.Fischer,UlrichPrestel,PingchuanMa,Dmytr

你好,電動Atlas!波士頓動力機(jī)器人復(fù)活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機(jī)器人復(fù)活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進(jìn)入電動機(jī)器人時(shí)代!昨天,液壓Atlas剛「含淚」退出歷史舞臺,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機(jī)器人領(lǐng)域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時(shí)內(nèi),就已經(jīng)有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機(jī)器人的爆發(fā)年。網(wǎng)友銳評:機(jī)器人的進(jìn)步,讓今年看起來像人類的開幕式動作、自由度遠(yuǎn)超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應(yīng)該是仰面朝天。接下來,讓人驚掉下巴

iPhone上的蜂窩數(shù)據(jù)網(wǎng)路速度慢:修復(fù) iPhone上的蜂窩數(shù)據(jù)網(wǎng)路速度慢:修復(fù) May 03, 2024 pm 09:01 PM

在iPhone上面臨滯後,緩慢的行動數(shù)據(jù)連線?通常,手機(jī)上蜂窩互聯(lián)網(wǎng)的強(qiáng)度取決於幾個(gè)因素,例如區(qū)域、蜂窩網(wǎng)絡(luò)類型、漫遊類型等。您可以採取一些措施來獲得更快、更可靠的蜂窩網(wǎng)路連線。修復(fù)1–強(qiáng)制重啟iPhone有時(shí),強(qiáng)制重啟設(shè)備只會重置許多內(nèi)容,包括蜂窩網(wǎng)路連線。步驟1–只需按一次音量調(diào)高鍵並放開即可。接下來,按降低音量鍵並再次釋放它。步驟2–過程的下一部分是按住右側(cè)的按鈕。讓iPhone完成重啟。啟用蜂窩數(shù)據(jù)並檢查網(wǎng)路速度。再次檢查修復(fù)2–更改資料模式雖然5G提供了更好的網(wǎng)路速度,但在訊號較弱

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓(xùn)練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓(xùn)練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準(zhǔn)測試中表現(xiàn)已經(jīng)超過Pytorch和TensorFlow,7項(xiàng)指標(biāo)排名第一。而且測試並不是JAX性能表現(xiàn)最好的TPU上完成的。雖然現(xiàn)在在開發(fā)者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平臺進(jìn)行訓(xùn)練和運(yùn)行。模型最近,Keras團(tuán)隊(duì)為三個(gè)後端(TensorFlow、JAX、PyTorch)與原生PyTorch實(shí)作以及搭配TensorFlow的Keras2進(jìn)行了基準(zhǔn)測試。首先,他們?yōu)樯墒胶头巧墒饺斯ぶ腔廴蝿?wù)選擇了一組主流

特斯拉機(jī)器人進(jìn)廠打工,馬斯克:手的自由度今年將達(dá)到22個(gè)! 特斯拉機(jī)器人進(jìn)廠打工,馬斯克:手的自由度今年將達(dá)到22個(gè)! May 06, 2024 pm 04:13 PM

特斯拉機(jī)器人Optimus最新影片出爐,已經(jīng)可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點(diǎn)之一在於Optimus在廠子裡完成這項(xiàng)工作,是完全自主的,全程沒有人為的干預(yù)。而且在Optimus的視角之下,它還可以把放歪了的電池重新?lián)炱饋矸胖?,主打一個(gè)自動糾錯(cuò):對於Optimus的手,英偉達(dá)科學(xué)家JimFan給出了高度的評價(jià):Optimus的手是全球五指機(jī)器人裡最靈巧的之一。它的手不僅有觸覺

美國空軍高調(diào)展示首個(gè)AI戰(zhàn)鬥機(jī)!部長親自試駕全程未乾預(yù),10萬行代碼試飛21次 美國空軍高調(diào)展示首個(gè)AI戰(zhàn)鬥機(jī)!部長親自試駕全程未乾預(yù),10萬行代碼試飛21次 May 07, 2024 pm 05:00 PM

最近,軍事圈被這個(gè)消息刷屏了:美軍的戰(zhàn)鬥機(jī),已經(jīng)能由AI完成全自動空戰(zhàn)了。是的,就在最近,美軍的AI戰(zhàn)鬥機(jī)首次公開,揭開了神秘面紗。這架戰(zhàn)鬥機(jī)的全名是可變穩(wěn)定性飛行模擬器測試飛機(jī)(VISTA),由美空軍部長親自搭乘,模擬了一對一的空戰(zhàn)。 5月2日,美國空軍部長FrankKendall在Edwards空軍基地駕駛X-62AVISTA升空注意,在一小時(shí)的飛行中,所有飛行動作都由AI自主完成! Kendall表示——在過去的幾十年中,我們一直在思考自主空對空作戰(zhàn)的無限潛力,但它始終顯得遙不可及。然而如今,

超級智能體生命力覺醒!可自我更新的AI來了,媽媽再也不用擔(dān)心資料瓶頸難題 超級智能體生命力覺醒!可自我更新的AI來了,媽媽再也不用擔(dān)心資料瓶頸難題 Apr 29, 2024 pm 06:55 PM

哭死啊,全球狂煉大模型,一網(wǎng)路的資料不夠用,根本不夠用。訓(xùn)練模型搞得跟《飢餓遊戲》似的,全球AI研究者,都在苦惱怎麼才能餵飽這群資料大胃王。尤其在多模態(tài)任務(wù)中,這問題尤其突出。一籌莫展之際,來自人大系的初創(chuàng)團(tuán)隊(duì),用自家的新模型,率先在國內(nèi)把「模型生成數(shù)據(jù)自己餵自己」變成了現(xiàn)實(shí)。而且還是理解側(cè)和生成側(cè)雙管齊下,兩側(cè)都能產(chǎn)生高品質(zhì)、多模態(tài)的新數(shù)據(jù),對模型本身進(jìn)行數(shù)據(jù)反哺。模型是啥?中關(guān)村論壇上剛露面的多模態(tài)大模型Awaker1.0。團(tuán)隊(duì)是誰?智子引擎。由人大高瓴人工智慧學(xué)院博士生高一鑷創(chuàng)立,高

See all articles