通透!機(jī)器學(xué)習(xí)各大模型原理的深度剖析!
Apr 12, 2024 pm 05:55 PM通俗來(lái)說(shuō),機(jī)器學(xué)習(xí)模型是一種數(shù)學(xué)函數(shù),它能夠?qū)⑤斎胭Y料映射到預(yù)測(cè)輸出。更具體地說(shuō),機(jī)器學(xué)習(xí)模型是一種透過(guò)學(xué)習(xí)訓(xùn)練數(shù)據(jù),來(lái)調(diào)整模型參數(shù),以最小化預(yù)測(cè)輸出與真實(shí)標(biāo)籤之間的誤差的數(shù)學(xué)函數(shù)。
在機(jī)器學(xué)習(xí)中存在多種模型,例如邏輯迴歸模型、決策樹(shù)模型、支援向量機(jī)模型等,每種模型都有其適用的資料類型和問(wèn)題類型。同時(shí),不同模型之間存在著許多共通性,或者說(shuō)有一條隱藏的模型演化的路徑。
將聯(lián)結(jié)主義的感知機(jī)為例,透過(guò)增加感知機(jī)的隱藏層數(shù)量,我們可以將其轉(zhuǎn)化為深度神經(jīng)網(wǎng)路。而對(duì)感知機(jī)加入核函數(shù)的話就可以轉(zhuǎn)換為SVM。這個(gè)過(guò)程可以直觀地展示了不同模型之間的內(nèi)在聯(lián)繫,以及模型間的轉(zhuǎn)換可能。依照相似點(diǎn),我粗糙(不嚴(yán)謹(jǐn))地將模型分為以下6個(gè)大類,以方便發(fā)現(xiàn)基礎(chǔ)的共通性,逐一深入剖析!
一、神經(jīng)網(wǎng)路(聯(lián)結(jié)主義)類別的模型:?
連結(jié)主義模型是模擬人腦神經(jīng)網(wǎng)路結(jié)構(gòu)與功能的計(jì)算模型。其基本單元是神經(jīng)元,每個(gè)神經(jīng)元接收來(lái)自其他神經(jīng)元的輸入,透過(guò)調(diào)整權(quán)重來(lái)改變輸入對(duì)神經(jīng)元的影響。神經(jīng)網(wǎng)路是一個(gè)黑盒子,透過(guò)多層的非線性隱藏層的作用,可以達(dá)到臨近的效果。
代表模型有DNN、SVM、Transformer、LSTM,某些情況下,深度神經(jīng)網(wǎng)路的最後一層可以看作是一個(gè)邏輯迴歸模型,用於對(duì)輸入資料進(jìn)行分類。而支援向量機(jī)也可以看作是特殊類型的神經(jīng)網(wǎng)絡(luò),其中只有兩層:輸入層和輸出層,SVM額外地透過(guò)核函數(shù)實(shí)現(xiàn)複雜的非線性轉(zhuǎn)化,達(dá)到和深度神經(jīng)網(wǎng)路類似的效果。如下為經(jīng)典DNN模型原理解析:
深度神經(jīng)網(wǎng)路(DNN)是透過(guò)多層神經(jīng)元組成,透過(guò)前向傳播過(guò)程,將輸入資料傳遞到每一層神經(jīng)元,經(jīng)過(guò)逐層計(jì)算得到輸出。每一層神經(jīng)元都會(huì)接收上一層神經(jīng)元的輸出作為輸入,並輸出到下一層神經(jīng)元。 DNN的訓(xùn)練過(guò)程是透過(guò)反向傳播演算法實(shí)現(xiàn)的。在訓(xùn)練過(guò)程中,計(jì)算輸出層與真實(shí)標(biāo)籤之間的誤差,並將誤差反向傳播到每一層神經(jīng)元,根據(jù)梯度下降演算法更新神經(jīng)元的權(quán)重和偏壓項(xiàng)。透過(guò)反覆迭代這個(gè)過(guò)程,不斷優(yōu)化網(wǎng)路參數(shù),最終使得網(wǎng)路的預(yù)測(cè)誤差最小化。
深度神經(jīng)網(wǎng)路(DNN)的優(yōu)點(diǎn)是具有強(qiáng)大的特徵學(xué)習(xí)能力。 DNN能夠自動(dòng)學(xué)習(xí)資料的特徵,無(wú)需手動(dòng)設(shè)計(jì)特徵。高度非線性性和強(qiáng)大的泛化能力。缺點(diǎn)是DNN需要大量的參數(shù),這可能導(dǎo)致過(guò)度擬合問(wèn)題。同時(shí)DNN的計(jì)算量很大,訓(xùn)練時(shí)間長(zhǎng)。以下是一個(gè)簡(jiǎn)單的Python程式碼範(fàn)例,使用Keras庫(kù)建立一個(gè)深度神經(jīng)網(wǎng)路模型:
from keras.models import Sequentialfrom keras.layers import Densefrom keras.optimizers import Adamfrom keras.losses import BinaryCrossentropyimport numpy as np# 構(gòu)建模型model = Sequential()model.add(Dense(64, activatinotallow='relu', input_shape=(10,))) # 輸入層有10個(gè)特征model.add(Dense(64, activatinotallow='relu')) # 隱藏層有64個(gè)神經(jīng)元model.add(Dense(1, activatinotallow='sigmoid')) # 輸出層有1個(gè)神經(jīng)元,使用sigmoid激活函數(shù)進(jìn)行二分類任務(wù)# 編譯模型model.compile(optimizer=Adam(lr=0.001), loss=BinaryCrossentropy(), metrics=['accuracy'])# 生成模擬數(shù)據(jù)集x_train = np.random.rand(1000, 10) # 1000個(gè)樣本,每個(gè)樣本有10個(gè)特征y_train = np.random.randint(2, size=1000) # 1000個(gè)標(biāo)簽,二分類任務(wù)# 訓(xùn)練模型model.fit(x_train, y_train, epochs=10, batch_size=32) # 訓(xùn)練10個(gè)輪次,每次使用32個(gè)樣本進(jìn)行訓(xùn)練
#二、符號(hào)主義類別的模型
符號(hào)主義類別的模型是一種基於邏輯推理的智慧模擬方法,其認(rèn)為人類是一個(gè)物理符號(hào)系統(tǒng),電腦也是一個(gè)物理符號(hào)系統(tǒng),因此,就可以用電腦的規(guī)則庫(kù)和推理引擎來(lái)模擬人的智能行為,即用計(jì)算機(jī)的符號(hào)操作來(lái)模擬人的認(rèn)知過(guò)程(說(shuō)穿了,就是將人類邏輯存入計(jì)算機(jī),達(dá)成智能執(zhí)行)。
其代表模型有專家系統(tǒng)、知識(shí)庫(kù)、知識(shí)圖譜,其原理是將資訊編碼成一組可識(shí)別的符號(hào),透過(guò)顯式的規(guī)則來(lái)操作符號(hào)以產(chǎn)生運(yùn)算結(jié)果。如下專家系統(tǒng)的簡(jiǎn)單範(fàn)例:
# 定義規(guī)則庫(kù)rules = [{"name": "rule1", "condition": "sym1 == 'A' and sym2 == 'B'", "action": "result = 'C'"},{"name": "rule2", "condition": "sym1 == 'B' and sym2 == 'C'", "action": "result = 'D'"},{"name": "rule3", "condition": "sym1 == 'A' or sym2 == 'B'", "action": "result = 'E'"},]# 定義推理引擎def infer(rules, sym1, sym2):for rule in rules:if rule["condition"] == True:# 條件為真時(shí)執(zhí)行動(dòng)作return rule["action"]return None# 沒(méi)有滿足條件的規(guī)則時(shí)返回None# 測(cè)試專家系統(tǒng)print(infer(rules, 'A', 'B'))# 輸出: Cprint(infer(rules, 'B', 'C'))# 輸出: Dprint(infer(rules, 'A', 'C'))# 輸出: Eprint(infer(rules, 'B', 'B'))# 輸出: E
三、決策樹(shù)類的模型
決策樹(shù)模型是一種非參數(shù)的分類和回歸方法,它利用樹(shù)形圖表示決策過(guò)程。更通俗來(lái)講,樹(shù)模型的數(shù)學(xué)描述就是“分段函數(shù)”。它利用信息論中的熵理論選擇決策樹(shù)的最佳劃分屬性,以構(gòu)建出一棵具有最佳分類性能的決策樹(shù)。
決策樹(shù)模型的基本原理是遞歸地將數(shù)據(jù)集劃分成若干個(gè)子數(shù)據(jù)集,直到每個(gè)子數(shù)據(jù)集都屬于同一類別或者滿足某個(gè)停止條件。在劃分過(guò)程中,決策樹(shù)模型采用信息增益、信息增益率、基尼指數(shù)等指標(biāo)來(lái)評(píng)估劃分的好壞,以選擇最佳的劃分屬性。
決策樹(shù)模型的代表模型有很多,其中最著名的有ID3、C4.5、CART等。ID3算法是決策樹(shù)算法的鼻祖,它采用信息增益來(lái)選擇最佳劃分屬性;C4.5算法是ID3算法的改進(jìn)版,它采用信息增益率來(lái)選擇最佳劃分屬性,同時(shí)采用剪枝策略來(lái)提高決策樹(shù)的泛化能力;CART算法則是分類和回歸樹(shù)的簡(jiǎn)稱,它采用基尼指數(shù)來(lái)選擇最佳劃分屬性,并能夠處理連續(xù)屬性和有序?qū)傩浴?/span>
以下是使用Python中的Scikit-learn庫(kù)實(shí)現(xiàn)CART算法的代碼示例:
from sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitfrom sklearn.tree import DecisionTreeClassifier, plot_tree# 加載數(shù)據(jù)集iris = load_iris()X = iris.datay = iris.target# 劃分訓(xùn)練集和測(cè)試集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 構(gòu)建決策樹(shù)模型clf = DecisionTreeClassifier(criterinotallow='gini')clf.fit(X_train, y_train)# 預(yù)測(cè)測(cè)試集結(jié)果y_pred = clf.predict(X_test)# 可視化決策樹(shù)plot_tree(clf)
四、概率類的模型
概率模型是一種基于概率論的數(shù)學(xué)模型,用于描述隨機(jī)現(xiàn)象或事件的分布、發(fā)生概率以及它們之間的概率關(guān)系。概率模型在各個(gè)領(lǐng)域都有廣泛的應(yīng)用,如統(tǒng)計(jì)學(xué)、經(jīng)濟(jì)學(xué)、機(jī)器學(xué)習(xí)等。
概率模型的原理基于概率論和統(tǒng)計(jì)學(xué)的基本原理。它使用概率分布來(lái)描述隨機(jī)變量的分布情況,并使用概率規(guī)則來(lái)描述事件之間的條件關(guān)系。通過(guò)這些原理,概率模型可以對(duì)隨機(jī)現(xiàn)象或事件進(jìn)行定量分析和預(yù)測(cè)。
代表模型主要有:樸素貝葉斯分類器、貝葉斯網(wǎng)絡(luò)、隱馬爾可夫模型。其中,樸素貝葉斯分類器和邏輯回歸都基于貝葉斯定理,它們都使用概率來(lái)表示分類的不確定性。
隱馬爾可夫模型和貝葉斯網(wǎng)絡(luò)都是基于概率的模型,可用于描述隨機(jī)序列和隨機(jī)變量之間的關(guān)系。
樸素貝葉斯分類器和貝葉斯網(wǎng)絡(luò)都是基于概率的圖模型,可用于描述隨機(jī)變量之間的概率關(guān)系。
以下是使用Python中的Scikit-learn庫(kù)實(shí)現(xiàn)樸素貝葉斯分類器的代碼示例:
from sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitfrom sklearn.naive_bayes import GaussianNB# 加載數(shù)據(jù)集iris = load_iris()X = iris.datay = iris.target# 劃分訓(xùn)練集和測(cè)試集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 構(gòu)建樸素貝葉斯分類器模型clf = GaussianNB()clf.fit(X_train, y_train)# 預(yù)測(cè)測(cè)試集結(jié)果y_pred = clf.predict(X_test)
五、近鄰類的模型
近鄰類模型(本來(lái)想命名為距離類模型,但是距離類的定義就比較寬泛了)是一種非參數(shù)的分類和回歸方法,它基于實(shí)例的學(xué)習(xí)不需要明確的訓(xùn)練和測(cè)試集的劃分。它通過(guò)測(cè)量不同數(shù)據(jù)點(diǎn)之間的距離來(lái)決定數(shù)據(jù)的相似性。
以KNN算法為例,其核心思想是,如果一個(gè)樣本在特征空間中的 k 個(gè)最接近的訓(xùn)練樣本中的大多數(shù)屬于某一個(gè)類別,則該樣本也屬于這個(gè)類別。KNN算法基于實(shí)例的學(xué)習(xí)不需要明確的訓(xùn)練和測(cè)試集的劃分,而是通過(guò)測(cè)量不同數(shù)據(jù)點(diǎn)之間的距離來(lái)決定數(shù)據(jù)的相似性。
代表模型有:k-近鄰算法(k-Nearest Neighbors,KNN)、半徑搜索(Radius Search)、K-means、權(quán)重KNN、多級(jí)分類KNN(Multi-level Classification KNN)、近似最近鄰算法(Approximate Nearest Neighbor, ANN)
近鄰模型基于相似的原理,即通過(guò)測(cè)量不同數(shù)據(jù)點(diǎn)之間的距離來(lái)決定數(shù)據(jù)的相似性。
除了最基礎(chǔ)的KNN算法外,其他變種如權(quán)重KNN和多級(jí)分類KNN都在基礎(chǔ)算法上進(jìn)行了改進(jìn),以更好地適應(yīng)不同的分類問(wèn)題。
近似最近鄰算法(ANN)是一種通過(guò)犧牲精度來(lái)?yè)Q取時(shí)間和空間的方式,從大量樣本中獲取最近鄰的方法。ANN算法通過(guò)降低存儲(chǔ)空間和提高查找效率來(lái)處理大規(guī)模數(shù)據(jù)集。它通過(guò)“近似”的方法來(lái)減少搜索時(shí)間,這種方法允許在搜索過(guò)程中存在少量誤差。
以下是使用Python中的Scikit-learn庫(kù)實(shí)現(xiàn)KNN算法的代碼示例:
from sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitfrom sklearn.neighbors import KNeighborsClassifier# 加載數(shù)據(jù)集iris = load_iris()X = iris.datay = iris.target# 劃分訓(xùn)練集和測(cè)試集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 構(gòu)建KNN分類器模型knn = KNeighborsClassifier(n_neighbors=3)knn.fit(X_train, y_train)# 預(yù)測(cè)測(cè)試集結(jié)果y_pred = knn.predict(X_test)
六、集成學(xué)習(xí)類的模型
集成學(xué)習(xí)(Ensemble Learning)不僅僅是一類的模型,更是一種多模型融合的思想,通過(guò)將多個(gè)學(xué)習(xí)器的預(yù)測(cè)結(jié)果進(jìn)行合并,以提高整體的預(yù)測(cè)精度和穩(wěn)定性。在實(shí)際應(yīng)用中,集成學(xué)習(xí)無(wú)疑是數(shù)據(jù)挖掘的神器!
集成學(xué)習(xí)的核心思想是通過(guò)集成多個(gè)基學(xué)習(xí)器來(lái)提高整體的預(yù)測(cè)性能。具體來(lái)說(shuō),通過(guò)將多個(gè)學(xué)習(xí)器的預(yù)測(cè)結(jié)果進(jìn)行合并,可以減少單一學(xué)習(xí)器的過(guò)擬合和欠擬合問(wèn)題,提高模型的泛化能力。同時(shí),通過(guò)引入多樣性(如不同的基學(xué)習(xí)器、不同的訓(xùn)練數(shù)據(jù)等),可以進(jìn)一步提高模型的性能。常用的集成學(xué)習(xí)方法有:
- Bagging是一種通過(guò)引入多樣性和減少方差來(lái)提高模型穩(wěn)定性和泛化能力的集成學(xué)習(xí)方法。它可以應(yīng)用于任何分類或回歸算法。
- Boosting是一種通過(guò)引入多樣性和改變基學(xué)習(xí)器的重要性來(lái)提高模型性能的集成學(xué)習(xí)方法。它也是一種可以應(yīng)用于任何分類或回歸算法的通用技術(shù)。
- stack堆疊是一種更高級(jí)的集成學(xué)習(xí)方法,它將不同的基學(xué)習(xí)器組合成一個(gè)層次結(jié)構(gòu),并通過(guò)一個(gè)元學(xué)習(xí)器對(duì)它們進(jìn)行整合。堆疊可以用于分類或回歸問(wèn)題,并通常用于提高模型的泛化能力。
集成學(xué)習(xí)代表模型有:隨機(jī)森林、孤立森林、GBDT、Adaboost、Xgboost等。以下是使用Python中的Scikit-learn庫(kù)實(shí)現(xiàn)隨機(jī)森林算法的代碼示例:
from sklearn.ensemble import RandomForestClassifierfrom sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_split# 加載數(shù)據(jù)集iris = load_iris()X = iris.datay = iris.target# 劃分訓(xùn)練集和測(cè)試集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 構(gòu)建隨機(jī)森林分類器模型clf = RandomForestClassifier(n_estimators=100, random_state=42)clf.fit(X_train, y_train)# 預(yù)測(cè)測(cè)試集結(jié)果y_pred = clf.predict(X_test)
綜上,我們通過(guò)將相似原理的模型歸納為各種類別,以此逐個(gè)類別地探索其原理,可以更為系統(tǒng)全面地了解模型的原理及聯(lián)系。希望對(duì)大家有所幫助!
以上是通透!機(jī)器學(xué)習(xí)各大模型原理的深度剖析!的詳細(xì)內(nèi)容。更多資訊請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

熱AI工具

Undress AI Tool
免費(fèi)脫衣圖片

Undresser.AI Undress
人工智慧驅(qū)動(dòng)的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門(mén)文章

熱工具

記事本++7.3.1
好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強(qiáng)大的PHP整合開(kāi)發(fā)環(huán)境

Dreamweaver CS6
視覺(jué)化網(wǎng)頁(yè)開(kāi)發(fā)工具

SublimeText3 Mac版
神級(jí)程式碼編輯軟體(SublimeText3)

用戶語(yǔ)音輸入通過(guò)前端JavaScript的MediaRecorderAPI捕獲並發(fā)送至PHP後端;2.PHP將音頻保存為臨時(shí)文件後調(diào)用STTAPI(如Google或百度語(yǔ)音識(shí)別)轉(zhuǎn)換為文本;3.PHP將文本發(fā)送至AI服務(wù)(如OpenAIGPT)獲取智能回復(fù);4.PHP再調(diào)用TTSAPI(如百度或Google語(yǔ)音合成)將回復(fù)轉(zhuǎn)為語(yǔ)音文件;5.PHP將語(yǔ)音文件流式返回前端播放,完成交互。整個(gè)流程由PHP主導(dǎo)數(shù)據(jù)流轉(zhuǎn)與錯(cuò)誤處理,確保各環(huán)節(jié)無(wú)縫銜接。

要實(shí)現(xiàn)PHP結(jié)合AI進(jìn)行文本糾錯(cuò)與語(yǔ)法優(yōu)化,需按以下步驟操作:1.選擇適合的AI模型或API,如百度、騰訊API或開(kāi)源NLP庫(kù);2.通過(guò)PHP的curl或Guzzle調(diào)用API並處理返回結(jié)果;3.在應(yīng)用中展示糾錯(cuò)信息並允許用戶選擇是否採(cǎi)納;4.使用php-l和PHP_CodeSniffer進(jìn)行語(yǔ)法檢測(cè)與代碼優(yōu)化;5.持續(xù)收集反饋並更新模型或規(guī)則以提升效果。選擇AIAPI時(shí)應(yīng)重點(diǎn)評(píng)估準(zhǔn)確率、響應(yīng)速度、價(jià)格及對(duì)PHP的支持。代碼優(yōu)化應(yīng)遵循PSR規(guī)範(fàn)、合理使用緩存、避免循環(huán)查詢、定期審查代碼,並藉助X

使用Seaborn的jointplot可快速可視化兩個(gè)變量間的關(guān)係及各自分佈;2.基礎(chǔ)散點(diǎn)圖通過(guò)sns.jointplot(data=tips,x="total_bill",y="tip",kind="scatter")實(shí)現(xiàn),中心為散點(diǎn)圖,上下和右側(cè)顯示直方圖;3.添加回歸線和密度信息可用kind="reg",並結(jié)合marginal_kws設(shè)置邊緣圖樣式;4.數(shù)據(jù)量大時(shí)推薦kind="hex",用

PHP結(jié)合AI做視頻內(nèi)容分析的核心思路是讓PHP作為后端“膠水”,先上傳視頻到云存儲(chǔ),再調(diào)用AI服務(wù)(如GoogleCloudVideoAI等)進(jìn)行異步分析;2.PHP解析返回的JSON結(jié)果,提取人物、物體、場(chǎng)景、語(yǔ)音等信息生成智能標(biāo)簽并存入數(shù)據(jù)庫(kù);3.優(yōu)勢(shì)在于利用PHP成熟的Web生態(tài)快速集成AI能力,適合已有PHP系統(tǒng)的項(xiàng)目高效落地;4.常見(jiàn)挑戰(zhàn)包括大文件處理(用預(yù)簽名URL直傳云存儲(chǔ))、異步任務(wù)(引入消息隊(duì)列)、成本控制(按需分析 預(yù)算監(jiān)控)和結(jié)果優(yōu)化(標(biāo)簽規(guī)范化);5.智能標(biāo)簽顯著提升視

要將AI情感計(jì)算技術(shù)融入PHP應(yīng)用,核心是利用雲(yún)服務(wù)AIAPI(如Google、AWS、Azure)進(jìn)行情感分析,通過(guò)HTTP請(qǐng)求發(fā)送文本並解析返回的JSON結(jié)果,將情感數(shù)據(jù)存入數(shù)據(jù)庫(kù),從而實(shí)現(xiàn)用戶反饋的自動(dòng)化處理與數(shù)據(jù)洞察。具體步驟包括:1.選擇適合的AI情感分析API,綜合考慮準(zhǔn)確性、成本、語(yǔ)言支持和集成複雜度;2.使用Guzzle或curl發(fā)送請(qǐng)求,存儲(chǔ)情感分?jǐn)?shù)、標(biāo)籤及強(qiáng)度等信息;3.構(gòu)建可視化儀錶盤(pán),支持優(yōu)先級(jí)排序、趨勢(shì)分析、產(chǎn)品迭代方向和用戶細(xì)分;4.應(yīng)對(duì)技術(shù)挑戰(zhàn),如API調(diào)用限制、數(shù)

字符串列表可用join()方法合併,如''.join(words)得到"HelloworldfromPython";2.數(shù)字列表需先用map(str,numbers)或[str(x)forxinnumbers]轉(zhuǎn)為字符串後才能join;3.任意類型列表可直接用str()轉(zhuǎn)換為帶括號(hào)和引號(hào)的字符串,適用於調(diào)試;4.自定義格式可用生成器表達(dá)式結(jié)合join()實(shí)現(xiàn),如'|'.join(f"[{item}]"foriteminitems)輸出"[a]|[

pythoncanbeoptimizedFormized-formemory-boundoperationsbyreducingOverHeadThroughGenerator,有效dattratsures,andManagingObjectLifetimes.first,useGeneratorSInsteadoFlistSteadoflistSteadoFocessLargedAtasetSoneItematatime,desceedingingLoadeGingloadInterveringerverneDraineNterveingerverneDraineNterveInterveIntMory.second.second.second.second,Choos,Choos

pandas.melt()用於將寬格式數(shù)據(jù)轉(zhuǎn)為長(zhǎng)格式,答案是通過(guò)指定id_vars保留標(biāo)識(shí)列、value_vars選擇需融化的列、var_name和value_name定義新列名,1.id_vars='Name'表示Name列不變,2.value_vars=['Math','English','Science']指定要融化的列,3.var_name='Subject'設(shè)置原列名的新列名,4.value_name='Score'設(shè)置原值的新列名,最終生成包含Name、Subject和Score三列
