亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

首頁(yè) 科技週邊 人工智慧 加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

Apr 25, 2024 pm 05:25 PM
git 位元組跳動(dòng) 產(chǎn)業(yè) 擴(kuò)散模型 hyper-sd

最近,擴(kuò)散模型(Diffusion Model)在圖像生成領(lǐng)域取得了顯著的進(jìn)展,為圖像生成和視頻生成任務(wù)帶來(lái)了前所未有的發(fā)展機(jī)遇。盡管取得了令人印象深刻的結(jié)果,擴(kuò)散模型在推理過(guò)程中天然存在的多步數(shù)迭代去噪特性導(dǎo)致了較高的計(jì)算成本。近期出現(xiàn)了一系列擴(kuò)散模型蒸餾算法來(lái)加速擴(kuò)散模型的推理過(guò)程。這些方法大致可以分為兩類(lèi):i)軌跡保持蒸餾;ii)軌跡重構(gòu)蒸餾。然而,這兩類(lèi)方法會(huì)分別受到效果天花板有限或者輸出域變化這兩個(gè)問(wèn)題的限制。

為了解決這些問(wèn)題,字節(jié)跳動(dòng)技術(shù)團(tuán)隊(duì)提出了一種名為 Hyper-SD 的軌跡分段一致性模型。Hyper-SD 的開(kāi)源也得到了Huggingface首席執(zhí)行官Clem Delangue的認(rèn)可。

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

該模型是一種新穎的擴(kuò)散模型蒸餾框架,結(jié)合了軌跡保持蒸餾和軌跡重構(gòu)蒸餾兩種策略的優(yōu)點(diǎn),在壓縮去噪步數(shù)的同時(shí)保持接近無(wú)損的性能。與現(xiàn)有的擴(kuò)散模型加速算法相比,該方法取得了卓越的加速效果。經(jīng)過(guò)大量實(shí)驗(yàn)和用戶(hù)評(píng)測(cè)的驗(yàn)證,Hyper-SD 在 SDXL 和 SD1.5 兩種架構(gòu)上都能在 1 到 8 步生成中實(shí)現(xiàn) SOTA 級(jí)別的圖像生成性能。

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

  • 項(xiàng)目主頁(yè):https://hyper-sd.github.io/

  • 論文鏈接:https://arxiv.org/abs/2404.13686

  • Huggingface 鏈接:https://huggingface.co/ByteDance/Hyper-SD

  • 單步生成 Demo 鏈接:https://huggingface.co/spaces/ByteDance/Hyper-SDXL-1Step-T2I

  • 實(shí)時(shí)畫(huà)板 Demo 鏈接:https://huggingface.co/spaces/ByteDance/Hyper-SD15-Scribble加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

引言

現(xiàn)有用于擴(kuò)散模型加速的蒸餾方法大致可以分為兩大類(lèi):軌跡保持蒸餾和軌跡重構(gòu)蒸餾。軌跡保持蒸餾技術(shù)旨在維持?jǐn)U散對(duì)應(yīng)的常微分方程(ODE)的原始軌跡。其原理是通過(guò)迫使蒸餾模型和原始模型產(chǎn)生相似的輸出來(lái)減少推理步驟。然而需要注意的是,盡管能夠?qū)崿F(xiàn)加速,由于模型容量有限以及訓(xùn)練擬合過(guò)程中不可避免的誤差,這類(lèi)方法可能導(dǎo)致生成質(zhì)量下降。相比之下,軌跡重構(gòu)方法則直接利用軌跡上的端點(diǎn)或真實(shí)圖像作為監(jiān)督的主要來(lái)源,忽略了軌跡的中間步驟,能夠通過(guò)重建更有效的軌跡來(lái)減少推理步驟的數(shù)量,并在有限的步驟內(nèi)探索模型的潛力,將其從原始軌跡的約束中解放出來(lái)。然而,這通常會(huì)導(dǎo)致加速模型與原始模型的輸出域不一致,從而得到不理想的結(jié)果。

本論文提出了一種結(jié)合軌跡保持和重構(gòu)策略?xún)?yōu)點(diǎn)的軌跡分段一致性模型(簡(jiǎn)稱(chēng) Hyper-SD)。具體而言,該算法首先引入軌跡分段一致性蒸餾,在每個(gè)段內(nèi)強(qiáng)制保持一致性,并逐漸減少段的數(shù)量以實(shí)現(xiàn)全時(shí)一致性。這一策略解決了由于模型擬合能力不足和推理誤差累積導(dǎo)致的一致性模型性能次優(yōu)的問(wèn)題。隨后,該算法利用人類(lèi)反饋學(xué)習(xí)(RLHF)來(lái)提升模型的生成效果,以彌補(bǔ)加速過(guò)程中模型生成效果的損失,使其更好地適應(yīng)低步數(shù)推理。最后,該算法使用分?jǐn)?shù)蒸餾來(lái)增強(qiáng)一步生成性能,并通過(guò)統(tǒng)一的 LORA 實(shí)現(xiàn)理想化的全時(shí)間步數(shù)一致擴(kuò)散模型,在生成效果上取得了卓越的成果。

方法

1. 軌跡分段一致性蒸餾

一致性蒸餾(CD)[24] 和一致性軌跡模型(CTM)[4] 都旨在透過(guò)一次性蒸餾將擴(kuò)散模型轉(zhuǎn)換為整個(gè)時(shí)間步範(fàn)圍 [0,T] 的一致性模型。然而,由於模型擬合能力的限制,這些蒸餾模型往往無(wú)法達(dá)到最適性。受到 CTM 中引入的軟一致性目標(biāo)的啟發(fā),我們透過(guò)將整個(gè)時(shí)間步範(fàn)圍 [0, T] 劃分為 k 段並逐步執(zhí)行分段一致模型蒸餾來(lái)細(xì)化訓(xùn)練過(guò)程。

在第一階段,我們?cè)O(shè)定 k=8 並使用原始擴(kuò)散模型來(lái)初始化 加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了。起始時(shí)間步加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了是從加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了中均勻隨機(jī)取樣的。然後,我們將結(jié)束時(shí)間步加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了進(jìn)行取樣,其中加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了計(jì)算如下:

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

#訓(xùn)練損失計(jì)算如下:

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

其中加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了透過(guò)公式3 進(jìn)行計(jì)算,加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了表示學(xué)生模型的指數(shù)滑動(dòng)平均(EMA)。

隨後,我們恢復(fù)上一階段的模型權(quán)重並繼續(xù)訓(xùn)練加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了,逐漸將 k 減少到 [4,2,1]。值得注意的是,k=1 對(duì)應(yīng)於標(biāo)準(zhǔn) CTM 訓(xùn)練方案。對(duì)於距離測(cè)量 d,我們採(cǎi)用了對(duì)抗性損失和均方誤差 (MSE) 損失的混合。在實(shí)驗(yàn)中,我們觀察到,當(dāng)預(yù)測(cè)值和目標(biāo)值接近時(shí)(例如,對(duì)於k=8, 4),MSE 損失更為有效,而對(duì)抗性損失則隨著預(yù)測(cè)和目標(biāo)值之間的差異增加而變得更加精確(例如,對(duì)於k=2, 1)。因此,我們?cè)谡麄€(gè)訓(xùn)練階段動(dòng)態(tài)增加對(duì)抗性損失的權(quán)重並減少 MSE 損失的權(quán)重。此外,我們還整合了噪音擾動(dòng)機(jī)制來(lái)增強(qiáng)訓(xùn)練穩(wěn)定性。以?xún)呻A段軌跡分段一致性蒸餾(TSCD)過(guò)程為例。如下圖所示,我們第一階段在 加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了?時(shí)間段內(nèi)執(zhí)行獨(dú)立一致性蒸餾 ,然後基於先前的兩段一致性蒸餾結(jié)果,進(jìn)行全局一致性軌跡蒸餾。

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

完整的演算法流程如下:

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

#2.人類(lèi)回饋學(xué)習(xí)

除了蒸餾之外,我們進(jìn)一步結(jié)合回饋學(xué)習(xí)以提高加速擴(kuò)散模型的性能。具體來(lái)說(shuō)我們透過(guò)利用人類(lèi)美學(xué)偏好和現(xiàn)有視覺(jué)感知模型的回饋來(lái)提高加速模型的生成品質(zhì)。對(duì)於美感回饋,我們利用 LAION 美學(xué)預(yù)測(cè)器和 ImageReward 中提供的美感偏好獎(jiǎng)勵(lì)模型來(lái)引導(dǎo)模型產(chǎn)生更具美感的圖像,如下所示:

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了##

其中加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了是美感獎(jiǎng)勵(lì)模型,包括?LAION 資料集和 ImageReward 模型的美感預(yù)測(cè)器,c 是文字提示,加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了與ReLU函數(shù)一起作為鉸鏈損失 。除了來(lái)自美學(xué)偏好的回饋之外,我們注意到嵌入有關(guān)圖像的豐富先驗(yàn)知識(shí)的現(xiàn)有視覺(jué)感知模型也可以作為良好的回饋提供者。根據(jù)經(jīng)驗(yàn),我們發(fā)現(xiàn)實(shí)例分割模型可以指導(dǎo)模型產(chǎn)生結(jié)構(gòu)合理的物件。具體來(lái)說(shuō),我們首先將潛在空間中影像加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了上的雜訊擴(kuò)散到加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了,之後,類(lèi)似於 ImageReward,我們執(zhí)行迭代去噪,直到 特定時(shí)間步加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了並直接預(yù)測(cè)加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了。隨後,我們利用感知實(shí)例分割模型透過(guò)檢查真實(shí)影像實(shí)例分割標(biāo)註與去雜訊影像的實(shí)例分割預(yù)測(cè)結(jié)果之間的差異來(lái)評(píng)估結(jié)構(gòu)產(chǎn)生的效能,如下所示:

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

其中加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了是實(shí)例分割模型(例如SOLO)。實(shí)例分割模型可以更準(zhǔn)確地捕捉生成影像的結(jié)構(gòu)缺陷並提供更有針對(duì)性的回饋訊號(hào)。值得注意的是,除了實(shí)例分割模型之外,其他感知模型也適用。這些感知模型可以作為主觀美學(xué)的補(bǔ)充回饋,而更著重於客觀生成品質(zhì)。因此,我們以回饋訊號(hào)最佳化擴(kuò)散模型可以定義為:

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

#3. 一步產(chǎn)生強(qiáng)化

由於一致性損失的固有限制,一致性模型框架內(nèi)的一步產(chǎn)生並不理想。正如 CM 中分析的那樣,一致性蒸餾模型在引導(dǎo)位置加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了處的軌跡端點(diǎn)加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了方面表現(xiàn)出卓越的準(zhǔn)確性。因此,分?jǐn)?shù)蒸餾是一種合適且有效的方法來(lái)進(jìn)一步提升我們的 TSCD 模型的一步生成效果。具體來(lái)說(shuō),我們透過(guò)優(yōu)化的分佈匹配蒸餾(DMD)技術(shù)來(lái)推進(jìn)一步生成。 DMD 透過(guò)利用兩個(gè)不同的評(píng)分函數(shù)來(lái)增強(qiáng)模型的輸出:來(lái)自教師模型分佈加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了和來(lái)自假模型的加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了。我們將均方誤差 (MSE) 損失與基於分?jǐn)?shù)的蒸餾結(jié)合起來(lái),以提高訓(xùn)練穩(wěn)定性。在這個(gè)過(guò)程中,前面提到的人類(lèi)回饋學(xué)習(xí)技術(shù)也被整合進(jìn)來(lái),用來(lái)微調(diào)我們的模型以有效地產(chǎn)生具有保真度的圖像。

通過(guò)集成這些策略,我們的方法不僅能夠?qū)崿F(xiàn)在 SD1.5 和 SDXL 上都實(shí)現(xiàn)卓越的低步數(shù)推理效果(并且無(wú)需 Classifier-Guidance),同時(shí)能夠?qū)崿F(xiàn)理想的全局一致性模型,無(wú)需針對(duì)每個(gè)特定的步數(shù)訓(xùn)練 UNet 或者 LoRA 實(shí)現(xiàn)統(tǒng)一的低步數(shù)推理模型。

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

實(shí)驗(yàn)

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

在 SD1.5 和 SDXL 上和目前現(xiàn)有的各種加速算法的定量比較,可以看到 Hyper-SD 顯著優(yōu)于當(dāng)前最先進(jìn)的方法

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

此外,Hyper-SD 能夠用一個(gè)模型來(lái)實(shí)現(xiàn)各種不同低步數(shù)的推理,上面的定量指標(biāo)也顯示了我們方法在使用統(tǒng)一模型推理時(shí)的效果。

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

在 SD1.5 和 SDXL 上的加速效果可視化直觀地展示了 Hyper-SD 在擴(kuò)散模型推理加速上的優(yōu)越性。

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

大量的 User-Study 也表明 Hyper-SD 相較于現(xiàn)有的各種加速算法的優(yōu)越性。

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

Hyper-SD 訓(xùn)練得到的加速 LoRA 能夠很好地兼容不同的風(fēng)格的文生圖底模。

加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了

同時(shí),Hyper-SD 的 LoRA 也能適配現(xiàn)有的 ControlNet,實(shí)現(xiàn)低步數(shù)下高質(zhì)量的可控圖像生成。

總結(jié)

論文提出了 Hyper-SD,一個(gè)統(tǒng)一的擴(kuò)散模型加速框架,可以顯著提升擴(kuò)散模型的在低步數(shù)情況下的生成能力,實(shí)現(xiàn)基于 SDXL 和 SD15 的新 SOTA 性能。該方法通過(guò)采用軌跡分段一致性蒸餾,增強(qiáng)了蒸餾過(guò)程中的軌跡保存能力,實(shí)現(xiàn)接近原始模型的生成效果。然后,通過(guò)進(jìn)一步利用人類(lèi)反饋學(xué)習(xí)和變分分?jǐn)?shù)蒸餾提升模型在極端低步數(shù)下的潛力,從而產(chǎn)生了更優(yōu)化、更高效的模型生成效果。論文還開(kāi)源了用于 SDXL 和 SD15 從 1 到 8 步推理的 Lora 插件,以及專(zhuān)用的一步 SDXL 模型,旨在進(jìn)一步推動(dòng)生成式 AI 社區(qū)的發(fā)展。

以上是加速擴(kuò)散模型,最快1步驟產(chǎn)生SOTA級(jí)圖片,位元組Hyper-SD開(kāi)源了的詳細(xì)內(nèi)容。更多資訊請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願(yuàn)投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請(qǐng)聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動(dòng)的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線(xiàn)上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開(kāi)發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺(jué)化網(wǎng)頁(yè)開(kāi)發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級(jí)程式碼編輯軟體(SublimeText3)

熱門(mén)話(huà)題

Laravel 教程
1597
29
PHP教程
1488
72
我如何查看我的git存儲(chǔ)庫(kù)的提交歷史? 我如何查看我的git存儲(chǔ)庫(kù)的提交歷史? Jul 13, 2025 am 12:07 AM

要查看Git提交歷史,使用gitlog命令。 1.基本用法為gitlog,可顯示提交哈希、作者、日期和提交信息;2.使用gitlog--oneline獲取簡(jiǎn)潔視圖;3.通過(guò)--author和--grep按作者或提交信息過(guò)濾;4.添加-p查看代碼變更,--stat查看變更統(tǒng)計(jì);5.使用--graph和--all查看分支歷史,或借助GitKraken、VSCode等可視化工具。

如何刪除git分支? 如何刪除git分支? Jul 13, 2025 am 12:02 AM

要?jiǎng)h除Git分支,首先確保已合併或無(wú)需保留,使用gitbranch-d刪除本地已合併分支,若需強(qiáng)制刪除未合併分支則用-D參數(shù)。遠(yuǎn)程分支刪除使用gitpushorigin--deletebranch-name命令,並可通過(guò)gitfetch--prune同步他人本地倉(cāng)庫(kù)。 1.刪除本地分支需確認(rèn)是否已合併;2.遠(yuǎn)程分支刪除需使用--delete參數(shù);3.刪除後應(yīng)驗(yàn)證分支是否成功移除;4.與團(tuán)隊(duì)溝通避免誤刪共享分支;5.定期清理無(wú)用分支以保持倉(cāng)庫(kù)整潔。

2025年最值得投資的5大穩(wěn)定幣(附最新數(shù)據(jù)) 2025年最值得投資的5大穩(wěn)定幣(附最新數(shù)據(jù)) Jul 09, 2025 am 06:06 AM

2025年最具投資價(jià)值的五大穩(wěn)定幣為T(mén)ether(USDT)、USD Coin(USDC)、Dai(DAI)、First Digital USD(FDUSD)和TrueUSD(TUSD)。

幣圈土狗幣能買(mǎi)嗎?如何識(shí)別詐騙項(xiàng)目? 幣圈土狗幣能買(mǎi)嗎?如何識(shí)別詐騙項(xiàng)目? Jul 10, 2025 pm 09:54 PM

幣圈中的“土狗幣”通常指那些市值極低、項(xiàng)目信息不透明、技術(shù)基礎(chǔ)薄弱甚至沒(méi)有實(shí)際應(yīng)用場(chǎng)景的新發(fā)行加密貨幣。這些代幣往往伴隨高風(fēng)險(xiǎn)的敘事而出現(xiàn)。

如何辨別假山寨幣?教你避免幣圈騙局 如何辨別假山寨幣?教你避免幣圈騙局 Jul 15, 2025 pm 10:36 PM

要辨別假山寨幣需從六個(gè)方面入手。一、查驗(yàn)證明材料與項(xiàng)目背景,包括白皮書(shū)、官網(wǎng)、代碼開(kāi)源地址及團(tuán)隊(duì)透明度;二、觀察上線(xiàn)平臺(tái),優(yōu)先選擇主流交易所;三、警惕高額回報(bào)與拉人頭模式,避免資金盤(pán)陷阱;四、分析合約代碼與代幣機(jī)制,檢查是否存在惡意函數(shù);五、審查社群與媒體運(yùn)營(yíng),識(shí)別虛假熱度;六、遵循防騙實(shí)戰(zhàn)建議,如不輕信推薦、使用專(zhuān)業(yè)錢(qián)包。通過(guò)以上步驟可有效規(guī)避騙局,保護(hù)資產(chǎn)安全。

如何將子樹(shù)添加到我的git存儲(chǔ)庫(kù)中? 如何將子樹(shù)添加到我的git存儲(chǔ)庫(kù)中? Jul 16, 2025 am 01:48 AM

要將子樹(shù)添加到Git倉(cāng)庫(kù),首先添加遠(yuǎn)程倉(cāng)庫(kù)並獲取其歷史記錄,接著使用gitmerge和gitread-tree命令將其合併為子目錄。步驟如下:1.使用gitremoteadd-f命令添加遠(yuǎn)程倉(cāng)庫(kù);2.運(yùn)行g(shù)itmerge--srecursive--no-commit獲取分支內(nèi)容;3.使用gitread-tree--prefix=指定目錄將項(xiàng)目作為子樹(shù)合併;4.提交更改以完成添加;5.更新時(shí)先gitfetch再重複合併步驟提交更新。此方法保持外部項(xiàng)目歷史完整且便於維護(hù)。

什麼是Useless Coin(USELESS幣)? USELESS幣用途、突出特點(diǎn)及未來(lái)增長(zhǎng)潛力概述 什麼是Useless Coin(USELESS幣)? USELESS幣用途、突出特點(diǎn)及未來(lái)增長(zhǎng)潛力概述 Jul 24, 2025 pm 11:54 PM

目錄關(guān)鍵要點(diǎn)什麼是UselessCoin:概述和主要特徵USELESS的主要特點(diǎn)UselessCoin(USELESS)未來(lái)價(jià)格展望:2025年及以後什麼影響UselessCoin的價(jià)格?未來(lái)價(jià)格前景UselessCoin(USELESS)的核心功能及其重要性UselessCoin(USELESS)如何運(yùn)作以及它帶來(lái)的好處UselessCoin的工作原理主要優(yōu)點(diǎn)關(guān)於USELESSCoin的公司本組織的伙伴關(guān)係他們?nèi)绾螀f(xié)同工

成品python大片在線(xiàn)觀看入口 python免費(fèi)成品網(wǎng)站大全 成品python大片在線(xiàn)觀看入口 python免費(fèi)成品網(wǎng)站大全 Jul 23, 2025 pm 12:36 PM

本文為您精選了多個(gè)頂級(jí)的Python“成品”項(xiàng)目網(wǎng)站與高水平“大片”級(jí)學(xué)習(xí)資源入口。無(wú)論您是想尋找開(kāi)發(fā)靈感、觀摩學(xué)習(xí)大師級(jí)的源代碼,還是系統(tǒng)性地提昇實(shí)戰(zhàn)能力,這些平臺(tái)都是不容錯(cuò)過(guò)的寶庫(kù),能幫助您快速成長(zhǎng)為Python高手。

See all articles