亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

首頁 科技周邊 人工智能 加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了

加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了

Apr 25, 2024 pm 05:25 PM
git 字節(jié)跳動 產(chǎn)業(yè) 擴(kuò)散模型 hyper-sd

最近,擴(kuò)散模型(Diffusion Model)在圖像生成領(lǐng)域取得了顯著的進(jìn)展,為圖像生成和視頻生成任務(wù)帶來了前所未有的發(fā)展機(jī)遇。盡管取得了令人印象深刻的結(jié)果,擴(kuò)散模型在推理過程中天然存在的多步數(shù)迭代去噪特性導(dǎo)致了較高的計算成本。近期出現(xiàn)了一系列擴(kuò)散模型蒸餾算法來加速擴(kuò)散模型的推理過程。這些方法大致可以分為兩類:i)軌跡保持蒸餾;ii)軌跡重構(gòu)蒸餾。然而,這兩類方法會分別受到效果天花板有限或者輸出域變化這兩個問題的限制。

為了解決這些問題,字節(jié)跳動技術(shù)團(tuán)隊(duì)提出了一種名為 Hyper-SD 的軌跡分段一致性模型。 Hyper-SD 的開源也得到了Huggingface首席執(zhí)行官Clem Delangue的認(rèn)可。

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

該模型是一種新穎的擴(kuò)散模型蒸餾框架,結(jié)合了軌跡保持蒸餾和軌跡重構(gòu)蒸餾兩種策略的優(yōu)點(diǎn),在壓縮去噪步數(shù)的同時保持接近無損的性能。與現(xiàn)有的擴(kuò)散模型加速算法相比,該方法取得了卓越的加速效果。經(jīng)過大量實(shí)驗(yàn)和用戶評測的驗(yàn)證,Hyper-SD 在 SDXL 和 SD1.5 兩種架構(gòu)上都能在 1 到 8 步生成中實(shí)現(xiàn) SOTA 級別的圖像生成性能。

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

  • 項(xiàng)目主頁:https://hyper-sd.github.io/

  • 論文鏈接:https://arxiv.org/abs/2404.13686

  • Huggingface 鏈接:https://huggingface.co/ByteDance/Hyper-SD

  • 單步生成Demo 鏈接:https://huggingface.co/spaces/ByteDance/Hyper-SDXL-1Step-T2I

  • 實(shí)時畫板Demo 鏈接:https://huggingface. co/spaces/ByteDance/Hyper-SD15-Scribble加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

引言

現(xiàn)有用于擴(kuò)散模型加速的蒸餾方法大致可以分為兩大類:軌跡保持蒸餾和軌跡重構(gòu)蒸餾。軌跡保持蒸餾技術(shù)旨在維持?jǐn)U散對應(yīng)的常微分方程(ODE)的原始軌跡。其原理是通過迫使蒸餾模型和原始模型產(chǎn)生相似的輸出來減少推理步驟。然而需要注意的是,盡管能夠?qū)崿F(xiàn)加速,由于模型容量有限以及訓(xùn)練擬合過程中不可避免的誤差,這類方法可能導(dǎo)致生成質(zhì)量下降。相比之下,軌跡重構(gòu)方法則直接利用軌跡上的端點(diǎn)或真實(shí)圖像作為監(jiān)督的主要來源,忽略了軌跡的中間步驟,能夠通過重建更有效的軌跡來減少推理步驟的數(shù)量,并在有限的步驟內(nèi)探索模型的潛力,將其從原始軌跡的約束中解放出來。然而,這通常會導(dǎo)致加速模型與原始模型的輸出域不一致,從而得到不理想的結(jié)果。

本論文提出了一種結(jié)合軌跡保持和重構(gòu)策略優(yōu)點(diǎn)的軌跡分段一致性模型(簡稱 Hyper-SD)。具體而言,該算法首先引入軌跡分段一致性蒸餾,在每個段內(nèi)強(qiáng)制保持一致性,并逐漸減少段的數(shù)量以實(shí)現(xiàn)全時一致性。這一策略解決了由于模型擬合能力不足和推理誤差累積導(dǎo)致的一致性模型性能次優(yōu)的問題。隨后,該算法利用人類反饋學(xué)習(xí)(RLHF)來提升模型的生成效果,以彌補(bǔ)加速過程中模型生成效果的損失,使其更好地適應(yīng)低步數(shù)推理。最后,該算法使用分?jǐn)?shù)蒸餾來增強(qiáng)一步生成性能,并通過統(tǒng)一的 LORA 實(shí)現(xiàn)理想化的全時間步數(shù)一致擴(kuò)散模型,在生成效果上取得了卓越的成果。

方法

1. 軌跡分段一致性蒸餾

一致性蒸餾(CD)[24] 和一致性軌跡模型(CTM)[4] 都旨在通過一次性蒸餾將擴(kuò)散模型轉(zhuǎn)換為整個時間步范圍 [0,T] 的一致性模型。然而,由于模型擬合能力的限制,這些蒸餾模型往往達(dá)不到最優(yōu)性。受到 CTM 中引入的軟一致性目標(biāo)的啟發(fā),我們通過將整個時間步范圍 [0, T] 劃分為 k 段并逐步執(zhí)行分段一致模型蒸餾來細(xì)化訓(xùn)練過程。

在第一階段,我們設(shè)置 k=8 并使用原始擴(kuò)散模型來初始化 加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了。起始時間步加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了是從加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了中均勻隨機(jī)采樣的。然后,我們對結(jié)束時間步加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了進(jìn)行采樣,其中加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了計算如下:

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

訓(xùn)練損失計算如下:

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

其中加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了通過公式 3 進(jìn)行計算,加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了表示學(xué)生模型的指數(shù)滑動平均(EMA)。

隨后,我們恢復(fù)上一階段的模型權(quán)重并繼續(xù)訓(xùn)練加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,逐漸將 k 減少到 [4,2,1]。值得注意的是,k=1 對應(yīng)于標(biāo)準(zhǔn) CTM 訓(xùn)練方案。對于距離度量 d,我們采用了對抗性損失和均方誤差 (MSE) 損失的混合。在實(shí)驗(yàn)中,我們觀察到,當(dāng)預(yù)測值和目標(biāo)值接近時(例如,對于 k=8, 4),MSE 損失更為有效,而對抗性損失則隨著預(yù)測和目標(biāo)值之間的差異增加而變得更加精確(例如,對于 k=2, 1)。因此,我們在整個訓(xùn)練階段動態(tài)增加對抗性損失的權(quán)重并減少 MSE 損失的權(quán)重。此外,我們還集成了噪聲擾動機(jī)制來增強(qiáng)訓(xùn)練穩(wěn)定性。以兩階段軌跡分段一致性蒸餾(TSCD)過程為例。如下圖所示,我們第一階段在 加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了?時間段內(nèi)執(zhí)行獨(dú)立一致性蒸餾 ,然后基于之前的兩段一致性蒸餾結(jié)果,進(jìn)行全局一致性軌跡蒸餾。

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

完整的算法流程如下:

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

2. 人類反饋學(xué)習(xí)

除了蒸餾之外,我們進(jìn)一步結(jié)合反饋學(xué)習(xí)以提高加速擴(kuò)散模型的性能。具體來說我們通過利用人類審美偏好和現(xiàn)有視覺感知模型的反饋來提高加速模型的生成質(zhì)量。對于審美反饋,我們利用 LAION 審美預(yù)測器和 ImageReward 中提供的審美偏好獎勵模型來引導(dǎo)模型生成更具美感的圖像,如下所示:

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

其中加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了是審美獎勵模型,包括?LAION 數(shù)據(jù)集和 ImageReward 模型的審美預(yù)測器,c 是文本提示,加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了與ReLU函數(shù)一起作為鉸鏈損失 。除了來自審美偏好的反饋之外,我們注意到嵌入有關(guān)圖像的豐富先驗(yàn)知識的現(xiàn)有視覺感知模型也可以作為良好的反饋提供者。根據(jù)經(jīng)驗(yàn),我們發(fā)現(xiàn)實(shí)例分割模型可以指導(dǎo)模型生成結(jié)構(gòu)合理的物體。具體來說,我們首先將潛在空間中圖像加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了上的噪聲擴(kuò)散到加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,之后,類似于 ImageReward,我們執(zhí)行迭代去噪,直到 特定時間步加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了并直接預(yù)測加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了。隨后,我們利用感知實(shí)例分割模型通過檢查真實(shí)圖像實(shí)例分割標(biāo)注與去噪圖像的實(shí)例分割預(yù)測結(jié)果之間的差異來評估結(jié)構(gòu)生成的性能,如下所示:

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

其中加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了是實(shí)例分割模型(例如 SOLO)。實(shí)例分割模型可以更準(zhǔn)確地捕獲生成圖像的結(jié)構(gòu)缺陷并提供更有針對性的反饋信號。值得注意的是,除了實(shí)例分割模型之外,其他感知模型也適用。這些感知模型可以作為主觀審美的補(bǔ)充反饋,更多地關(guān)注客觀生成質(zhì)量。因此,我們用反饋信號優(yōu)化擴(kuò)散模型可以定義為:

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

3. 一步生成強(qiáng)化

由于一致性損失的固有限制,一致性模型框架內(nèi)的一步生成并不理想。正如 CM 中分析的那樣,一致性蒸餾模型在引導(dǎo)位置加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了處的軌跡端點(diǎn)加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了方面表現(xiàn)出卓越的準(zhǔn)確性。因此,分?jǐn)?shù)蒸餾是一種合適且有效的方法來進(jìn)一步提升我們的 TSCD 模型的一步生成效果。具體來說,我們通過優(yōu)化的分布匹配蒸餾(DMD)技術(shù)來推進(jìn)一步生成。DMD 通過利用兩個不同的評分函數(shù)來增強(qiáng)模型的輸出:來自教師模型分布加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了和來自假模型的加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了。我們將均方誤差 (MSE) 損失與基于分?jǐn)?shù)的蒸餾結(jié)合起來,以提高訓(xùn)練穩(wěn)定性。在這個過程中,前面提到的人類反饋學(xué)習(xí)技術(shù)也被集成進(jìn)來,用來微調(diào)我們的模型以有效地生成具有保真度的圖像。

通過集成這些策略,我們的方法不僅能夠?qū)崿F(xiàn)在SD1.5 和SDXL 上都實(shí)現(xiàn)卓越的低步數(shù)推理效果(并且無需Classifier-Guidance),同時能夠?qū)崿F(xiàn)理想的全局一致性模型,無需針對每個特定的步數(shù)訓(xùn)練UNet 或者LoRA 實(shí)現(xiàn)統(tǒng)一的低步數(shù)推理模型。

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

實(shí)驗(yàn)

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

在SD1.5 和SDXL 上和目前現(xiàn)有的各種加速算法的定量比較,可以看到Hyper-SD 顯著優(yōu)于當(dāng)前最先進(jìn)的方法

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

此外,Hyper-SD 能夠用一個模型來實(shí)現(xiàn)各種不同低步數(shù)的推理,上面的定量指標(biāo)也顯示了我們方法在使用統(tǒng)一模型推理時的效果。

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

在SD1.5 和SDXL 上的加速效果可視化直觀地展示了Hyper-SD 在擴(kuò)散模型推理加速上的優(yōu)越性。

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

大量的 User-Study 也表明 Hyper-SD 相較于現(xiàn)有的各種加速算法的優(yōu)越性。

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

Hyper-SD 訓(xùn)練得到的加速 LoRA 能夠很好地兼容不同的風(fēng)格的文生圖底模。

加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了,字節(jié)Hyper-SD開源了

同時,Hyper-SD 的 LoRA 也能適配現(xiàn)有的 ControlNet,實(shí)現(xiàn)低步數(shù)下高質(zhì)量的可控圖像生成。

總結(jié)

論文提出了Hyper-SD,一個統(tǒng)一的擴(kuò)散模型加速框架,可以顯著提升擴(kuò)散模型的在低步數(shù)情況下的生成能力,實(shí)現(xiàn)基于SDXL 和SD15 的新SOTA 性能。該方法通過采用軌跡分段一致性蒸餾,增強(qiáng)了蒸餾過程中的軌跡保存能力,實(shí)現(xiàn)接近原始模型的生成效果。然后,通過進(jìn)一步利用人類反饋學(xué)習(xí)和變分分?jǐn)?shù)蒸餾提升模型在極端低步數(shù)下的潛力,從而產(chǎn)生了更優(yōu)化、更高效的模型生成效果。論文還開源了用于 SDXL 和 SD15 從 1 到 8 步推理的 Lora 插件,以及專用的一步 SDXL 模型,旨在進(jìn)一步推動生成式 AI 社區(qū)的發(fā)展。

以上是加速擴(kuò)散模型,最快1步生成SOTA級圖片,字節(jié)Hyper-SD開源了的詳細(xì)內(nèi)容。更多信息請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本站聲明
本文內(nèi)容由網(wǎng)友自發(fā)貢獻(xiàn),版權(quán)歸原作者所有,本站不承擔(dān)相應(yīng)法律責(zé)任。如您發(fā)現(xiàn)有涉嫌抄襲侵權(quán)的內(nèi)容,請聯(lián)系admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣服圖片

Undresser.AI Undress

Undresser.AI Undress

人工智能驅(qū)動的應(yīng)用程序,用于創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用于從照片中去除衣服的在線人工智能工具。

Clothoff.io

Clothoff.io

AI脫衣機(jī)

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智能換臉工具輕松在任何視頻中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的代碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

功能強(qiáng)大的PHP集成開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級代碼編輯軟件(SublimeText3)

熱門話題

Laravel 教程
1597
29
PHP教程
1488
72
我如何查看我的git存儲庫的提交歷史? 我如何查看我的git存儲庫的提交歷史? Jul 13, 2025 am 12:07 AM

要查看Git提交歷史,使用gitlog命令。1.基本用法為gitlog,可顯示提交哈希、作者、日期和提交信息;2.使用gitlog--oneline獲取簡潔視圖;3.通過--author和--grep按作者或提交信息過濾;4.添加-p查看代碼變更,--stat查看變更統(tǒng)計;5.使用--graph和--all查看分支歷史,或借助GitKraken、VSCode等可視化工具。

如何刪除git分支? 如何刪除git分支? Jul 13, 2025 am 12:02 AM

要刪除Git分支,首先確保已合并或無需保留,使用gitbranch-d刪除本地已合并分支,若需強(qiáng)制刪除未合并分支則用-D參數(shù)。遠(yuǎn)程分支刪除使用gitpushorigin--deletebranch-name命令,并可通過gitfetch--prune同步他人本地倉庫。1.刪除本地分支需確認(rèn)是否已合并;2.遠(yuǎn)程分支刪除需使用--delete參數(shù);3.刪除后應(yīng)驗(yàn)證分支是否成功移除;4.與團(tuán)隊(duì)溝通避免誤刪共享分支;5.定期清理無用分支以保持倉庫整潔。

幣圈土狗幣能買嗎?如何識別詐騙項(xiàng)目? 幣圈土狗幣能買嗎?如何識別詐騙項(xiàng)目? Jul 10, 2025 pm 09:54 PM

幣圈中的“土狗幣”通常指那些市值極低、項(xiàng)目信息不透明、技術(shù)基礎(chǔ)薄弱甚至沒有實(shí)際應(yīng)用場景的新發(fā)行加密貨幣。這些代幣往往伴隨高風(fēng)險的敘事而出現(xiàn)。

如何將子樹添加到我的git存儲庫中? 如何將子樹添加到我的git存儲庫中? Jul 16, 2025 am 01:48 AM

要將子樹添加到Git倉庫,首先添加遠(yuǎn)程倉庫并獲取其歷史記錄,接著使用gitmerge和gitread-tree命令將其合并為子目錄。步驟如下:1.使用gitremoteadd-f命令添加遠(yuǎn)程倉庫;2.運(yùn)行g(shù)itmerge--srecursive--no-commit獲取分支內(nèi)容;3.使用gitread-tree--prefix=指定目錄將項(xiàng)目作為子樹合并;4.提交更改以完成添加;5.更新時先gitfetch再重復(fù)合并步驟提交更新。此方法保持外部項(xiàng)目歷史完整且便于維護(hù)。

如何辨別假山寨幣?教你避免幣圈騙局 如何辨別假山寨幣?教你避免幣圈騙局 Jul 15, 2025 pm 10:36 PM

要辨別假山寨幣需從六個方面入手。一、查驗(yàn)證明材料與項(xiàng)目背景,包括白皮書、官網(wǎng)、代碼開源地址及團(tuán)隊(duì)透明度;二、觀察上線平臺,優(yōu)先選擇主流交易所;三、警惕高額回報與拉人頭模式,避免資金盤陷阱;四、分析合約代碼與代幣機(jī)制,檢查是否存在惡意函數(shù);五、審查社群與媒體運(yùn)營,識別虛假熱度;六、遵循防騙實(shí)戰(zhàn)建議,如不輕信推薦、使用專業(yè)錢包。通過以上步驟可有效規(guī)避騙局,保護(hù)資產(chǎn)安全。

什么是Useless Coin(USELESS幣)?USELESS幣用途、突出特點(diǎn)及未來增長潛力概述 什么是Useless Coin(USELESS幣)?USELESS幣用途、突出特點(diǎn)及未來增長潛力概述 Jul 24, 2025 pm 11:54 PM

目錄關(guān)鍵要點(diǎn)什么是UselessCoin:概述和主要特征USELESS的主要特點(diǎn)UselessCoin(USELESS)未來價格展望:2025年及以后什么影響UselessCoin的價格?未來價格前景UselessCoin(USELESS)的核心功能及其重要性UselessCoin(USELESS)如何運(yùn)作以及它帶來的好處UselessCoin的工作原理主要優(yōu)點(diǎn)關(guān)于USELESSCoin的公司本組織的伙伴關(guān)系他們?nèi)绾螀f(xié)同工

比特幣代號是什么?比特幣是什么樣式的代碼? 比特幣代號是什么?比特幣是什么樣式的代碼? Jul 22, 2025 pm 09:51 PM

比特幣作為數(shù)字世界的先驅(qū),其獨(dú)特的代號和底層技術(shù)一直是人們關(guān)注的焦點(diǎn)。它的標(biāo)準(zhǔn)代號是 BTC,在某些符合國際標(biāo)準(zhǔn)的平臺上也被稱為 XBT。從技術(shù)角度看,比特幣并非單一的代碼樣式,而是一個龐大且精密的開源軟件項(xiàng)目,其核心代碼主要由 C 語言編寫,并融合了密碼學(xué)、分布式系統(tǒng)和經(jīng)濟(jì)學(xué)原理,任何人都可以查看、審查和貢獻(xiàn)其代碼。

成品python大片在線觀看入口 python免費(fèi)成品網(wǎng)站大全 成品python大片在線觀看入口 python免費(fèi)成品網(wǎng)站大全 Jul 23, 2025 pm 12:36 PM

本文為您精選了多個頂級的Python“成品”項(xiàng)目網(wǎng)站與高水平“大片”級學(xué)習(xí)資源入口。無論您是想尋找開發(fā)靈感、觀摩學(xué)習(xí)大師級的源代碼,還是系統(tǒng)性地提升實(shí)戰(zhàn)能力,這些平臺都是不容錯過的寶庫,能幫助您快速成長為Python高手。

See all articles