亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

首頁 後端開發(fā) Python教學(xué) 量化的力量:縮小 GPT 釋放速度

量化的力量:縮小 GPT 釋放速度

Jan 27, 2025 am 02:16 AM

想像一下,採用像 GPT-2 這樣強(qiáng)大的語言模型(能夠編寫故事、回答問題和模仿人類文本)並將其壓縮為更精簡(jiǎn)、更快的版本,而不會(huì)削弱其功能。

這就是量化的承諾:一種降低模型計(jì)算精度的技術(shù),以犧牲邊際精度來換取顯著的效率提升。

第 0 階段:技術(shù)設(shè)置

    !pip install torch transformers accelerate bitsandbytes psutil

    from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
    import torch
    import time
    import gc

    def get_memory_usage():
        return torch.cuda.memory_allocated() / 1e6 if torch.cuda.is_available() else 0


    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    model_name = "gpt2"
    input_text = "Once upon a time"

第 1 階段:基線 – 全精度 (FP32)

實(shí)驗(yàn)從處於自然狀態(tài)的 GPT-2 開始:32 位元浮點(diǎn)精度 (FP32)。這是模型的「全功率」模式——高精度但資源密集。

  • 記憶體:載入 FP32 模型會(huì)消耗 511 MB GPU 記憶體。
  • 速度:依照提示「Once Upon a time」產(chǎn)生50個(gè)代幣需要1.76秒。
  • 清理後佔(zhàn)用空間: 即使刪除模型後,458 MB 記憶體仍然被佔(zhàn)用。

FP32 可以工作,但體積龐大。

    # Load tokenizer and base model
    tokenizer = AutoTokenizer.from_pretrained(model_name)
    print(f"Pre-load memory: {get_memory_usage()} MB")

    # Full precision model
    model_fp32 = AutoModelForCausalLM.from_pretrained(model_name).to(device)
    print(f"Post-load memory: {get_memory_usage()} MB")  # 511.15 MB

    # Inference measurement
    inputs = tokenizer(input_text, return_tensors="pt").to(device)
    start_time = time.time()
    output = model_fp32.generate(**inputs, max_length=50)
    inference_time = time.time() - start_time  # 1.76s

    # Cleanup protocol
    del model_fp32, inputs
    gc.collect()
    torch.cuda.empty_cache()

第 2 階段:精簡(jiǎn)-8 位元量化 (INT8)

輸入 8 位元量化,其中權(quán)重和活化儲(chǔ)存為整數(shù)而不是浮點(diǎn)數(shù)。轉(zhuǎn)變是立竿見影的:

  • 記憶體: INT8 模型載入時(shí)僅 187 MB比 FP32 小 63%。
  • 速度: 推理加速至 1.38 秒,提升 22%
  • 清理後佔(zhàn)用空間:刪除後記憶體降至139 MB。

該車型更輕、更快且仍然有效。明顯的升級(jí)。

    # 8-bit configuration
    quant_config_8bit = BitsAndBytesConfig(load_in_8bit=True)

    print(f"Pre-load memory: {get_memory_usage()} MB")  # 9.18 MB
    model_int8 = AutoModelForCausalLM.from_pretrained(
        model_name, 
        quantization_config=quant_config_8bit
    )

    # Dynamic input handling
    inputs_int8 = tokenizer(input_text, return_tensors="pt").to(model_int8.device)
    start_time = time.time()
    output = model_int8.generate(**inputs_int8, max_length=50)  # 1.38s

第 3 階段:效率邊緣 - 4 位元量化 (INT4)

現(xiàn)在我們更進(jìn)一步。透過 4 位元量化,權(quán)重被壓縮到接近最小的精度,並且計(jì)算使用 16 位元浮點(diǎn)來確保穩(wěn)定性。

  • 記憶體: INT4 型號(hào)的重量為 149 MB,比 FP32 輕71%。
  • 速度: 推理時(shí)間降至 1.08 秒,比 FP32 增加了 39%
  • 清理後佔(zhàn)用空間: 記憶體驟降至 58 MB — 原始記憶體的一小部分。

這不僅僅是最佳化;這不僅僅是最佳化。這是重塑。

    # 8-bit configuration
    quant_config_8bit = BitsAndBytesConfig(load_in_8bit=True)

    print(f"Pre-load memory: {get_memory_usage()} MB")  # 9.18 MB
    model_int8 = AutoModelForCausalLM.from_pretrained(
        model_name, 
        quantization_config=quant_config_8bit
    )

    # Dynamic input handling
    inputs_int8 = tokenizer(input_text, return_tensors="pt").to(model_int8.device)
    start_time = time.time()
    output = model_int8.generate(**inputs_int8, max_length=50)  # 1.38s

權(quán)衡:精確性與實(shí)用性

量化不是免費(fèi)的。降低精度可能會(huì)微妙地降低模型的準(zhǔn)確性,但對(duì)於許多任務(wù)(例如臨時(shí)文本生成)來說,差異是難以察覺的。我們的收穫遠(yuǎn)大於成本:

  • 內(nèi)存效率: fp32:511 MB→INT8:187 MB→INT4:149 MB。

>結(jié)果:>模型適合更嚴(yán)格的內(nèi)存約束,在消費(fèi)者GPU或邊緣設(shè)備上啟用部署。 >

  • 推理速度: fp32:1.76S→INT8:1.38S→INT4:1.08S。
  • 從聊天機(jī)器人到自動(dòng)化的內(nèi)容生成的實(shí)時(shí)應(yīng)用程序的
>

結(jié)果:更快的響應(yīng)。 >


它的工作原理:壓縮的機(jī)制

在其核心上,量化高精度值(例如32位浮點(diǎn))將其映射到較低精確的格式(8位或4位整數(shù))。例如:

  • > fp32>使用32位,捕獲細(xì)節(jié),但要求大量資源。
  • int8/int4使用較少的位,近似值,損失最小的值。
bitsandbytes庫會(huì)自動(dòng)處理此操作,重新包裝重量並調(diào)整計(jì)算以保持穩(wěn)定性。

視覺證明

The Visual Proof並排比較密封了:

    >內(nèi)存用法(條形圖):
  • fp32塔在int8和int4上,展示了資源需求的明顯減少。
  • >推理時(shí)間(線圖):
  • >從fp32到int4的向下斜率突出顯示速度的增長(zhǎng)。
  • 外賣?量化不僅是技術(shù)腳註 - 它是使AI民主化的實(shí)用工具。


最後一句話
    !pip install torch transformers accelerate bitsandbytes psutil

    from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
    import torch
    import time
    import gc

    def get_memory_usage():
        return torch.cuda.memory_allocated() / 1e6 if torch.cuda.is_available() else 0


    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    model_name = "gpt2"
    input_text = "Once upon a time"
通過量化,我們將GPT-2從資源豐富的龐然大物轉(zhuǎn)變?yōu)殪`活,高效的工具 - 通過正確的技術(shù),即使是巨人也可以學(xué)會(huì)輕輕地移動(dòng)。
該實(shí)現(xiàn)通過具體代碼和測(cè)量來揭示量化的功能。通過僅修改10-15行配置並部署量化,我們實(shí)現(xiàn)了:>

> 71%記憶足蹟?shù)臏p少

39%的推理速度

    如果您很好奇並且希望有實(shí)驗(yàn)的完整筆記本 - 前往Google Colab。

以上是量化的力量:縮小 GPT 釋放速度的詳細(xì)內(nèi)容。更多資訊請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願(yuàn)投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請(qǐng)聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動(dòng)的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級(jí)程式碼編輯軟體(SublimeText3)

熱門話題

Laravel 教程
1597
29
PHP教程
1488
72
Python類中的多態(tài)性 Python類中的多態(tài)性 Jul 05, 2025 am 02:58 AM

多態(tài)是Python面向?qū)ο缶幊讨械暮诵母拍睿浮耙环N接口,多種實(shí)現(xiàn)”,允許統(tǒng)一處理不同類型的對(duì)象。 1.多態(tài)通過方法重寫實(shí)現(xiàn),子類可重新定義父類方法,如Animal類的speak()方法在Dog和Cat子類中有不同實(shí)現(xiàn)。 2.多態(tài)的實(shí)際用途包括簡(jiǎn)化代碼結(jié)構(gòu)、增強(qiáng)可擴(kuò)展性,例如圖形繪製程序中統(tǒng)一調(diào)用draw()方法,或遊戲開發(fā)中處理不同角色的共同行為。 3.Python實(shí)現(xiàn)多態(tài)需滿足:父類定義方法,子類重寫該方法,但不要求繼承同一父類,只要對(duì)象實(shí)現(xiàn)相同方法即可,這稱為“鴨子類型”。 4.注意事項(xiàng)包括保持方

解釋Python發(fā)電機(jī)和迭代器。 解釋Python發(fā)電機(jī)和迭代器。 Jul 05, 2025 am 02:55 AM

迭代器是實(shí)現(xiàn)__iter__()和__next__()方法的對(duì)象,生成器是簡(jiǎn)化版的迭代器,通過yield關(guān)鍵字自動(dòng)實(shí)現(xiàn)這些方法。 1.迭代器每次調(diào)用next()返回一個(gè)元素,無更多元素時(shí)拋出StopIteration異常。 2.生成器通過函數(shù)定義,使用yield按需生成數(shù)據(jù),節(jié)省內(nèi)存且支持無限序列。 3.處理已有集合時(shí)用迭代器,動(dòng)態(tài)生成大數(shù)據(jù)或需惰性求值時(shí)用生成器,如讀取大文件時(shí)逐行加載。注意:列表等可迭代對(duì)像不是迭代器,迭代器到盡頭後需重新創(chuàng)建,生成器只能遍歷一次。

如何處理Python中的API身份驗(yàn)證 如何處理Python中的API身份驗(yàn)證 Jul 13, 2025 am 02:22 AM

處理API認(rèn)證的關(guān)鍵在於理解並正確使用認(rèn)證方式。 1.APIKey是最簡(jiǎn)單的認(rèn)證方式,通常放在請(qǐng)求頭或URL參數(shù)中;2.BasicAuth使用用戶名和密碼進(jìn)行Base64編碼傳輸,適合內(nèi)部系統(tǒng);3.OAuth2需先通過client_id和client_secret獲取Token,再在請(qǐng)求頭中帶上BearerToken;4.為應(yīng)對(duì)Token過期,可封裝Token管理類自動(dòng)刷新Token;總之,根據(jù)文檔選擇合適方式,並安全存儲(chǔ)密鑰信息是關(guān)鍵。

如何一次迭代兩個(gè)列表 如何一次迭代兩個(gè)列表 Jul 09, 2025 am 01:13 AM

在Python中同時(shí)遍歷兩個(gè)列表的常用方法是使用zip()函數(shù),它會(huì)按順序配對(duì)多個(gè)列表並以最短為準(zhǔn);若列表長(zhǎng)度不一致,可使用itertools.zip_longest()以最長(zhǎng)為準(zhǔn)並填充缺失值;結(jié)合enumerate()可同時(shí)獲取索引。 1.zip()簡(jiǎn)潔實(shí)用,適合成對(duì)數(shù)據(jù)迭代;2.zip_longest()處理不一致長(zhǎng)度時(shí)可填充默認(rèn)值;3.enumerate(zip())可在遍歷時(shí)獲取索引,滿足多種複雜場(chǎng)景需求。

什麼是Python迭代器? 什麼是Python迭代器? Jul 08, 2025 am 02:56 AM

Inpython,IteratorSareObjectSthallowloopingThroughCollectionsByImplementing_iter __()和__next __()。 1)iteratorsWiaTheIteratorProtocol,使用__ITER __()toreTurnterateratoratoranteratoratoranteratoratorAnterAnteratoratorant antheittheext__()

解釋Python斷言。 解釋Python斷言。 Jul 07, 2025 am 12:14 AM

Assert是Python用於調(diào)試的斷言工具,當(dāng)條件不滿足時(shí)拋出AssertionError。其語法為assert條件加可選錯(cuò)誤信息,適用於內(nèi)部邏輯驗(yàn)證如參數(shù)檢查、狀態(tài)確認(rèn)等,但不能用於安全或用戶輸入檢查,且應(yīng)配合清晰提示信息使用,僅限開發(fā)階段輔助調(diào)試而非替代異常處理。

什麼是Python型提示? 什麼是Python型提示? Jul 07, 2025 am 02:55 AM

typeHintsInpyThonsolverbromblemboyofambiguityandPotentialBugSindyNamalytyCodeByallowingDevelopsosteSpecefectifyExpectedTypes.theyenhancereadability,enablellybugdetection,andimprovetool.typehintsupport.typehintsareadsareadsareadsareadsareadsareadsareadsareadsareaddedusidocolon(

Python Fastapi教程 Python Fastapi教程 Jul 12, 2025 am 02:42 AM

要使用Python創(chuàng)建現(xiàn)代高效的API,推薦使用FastAPI;其基於標(biāo)準(zhǔn)Python類型提示,可自動(dòng)生成文檔,性能優(yōu)越。安裝FastAPI和ASGI服務(wù)器uvicorn後,即可編寫接口代碼。通過定義路由、編寫處理函數(shù)並返回?cái)?shù)據(jù),可以快速構(gòu)建API。 FastAPI支持多種HTTP方法,並提供自動(dòng)生成的SwaggerUI和ReDoc文檔系統(tǒng)。 URL參數(shù)可通過路徑定義捕獲,查詢參數(shù)則通過函數(shù)參數(shù)設(shè)置默認(rèn)值實(shí)現(xiàn)。合理使用Pydantic模型有助於提升開發(fā)效率和準(zhǔn)確性。

See all articles