亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

目錄
欠擬合和過擬合
1、過擬合
2、欠擬合
學(xué)習(xí)曲線
1、擬合模型的學(xué)習(xí)曲線
2、過擬合模型的學(xué)習(xí)曲線
3、欠擬合模型的學(xué)習(xí)曲線
總結(jié)
首頁 科技周邊 人工智能 通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合

通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合

Apr 29, 2024 pm 06:50 PM
人工智能 機(jī)器學(xué)習(xí) 過擬合模型

本文將介紹如何通過學(xué)習(xí)曲線來有效識(shí)別機(jī)器學(xué)習(xí)模型中的過擬合和欠擬合。

通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合

欠擬合和過擬合

1、過擬合

如果一個(gè)模型對(duì)數(shù)據(jù)進(jìn)行了過度訓(xùn)練,以至于它從中學(xué)習(xí)了噪聲,那么這個(gè)模型就被稱為過擬合。過擬合模型非常完美地學(xué)習(xí)了每一個(gè)例子,所以它會(huì)錯(cuò)誤地分類一個(gè)看不見的/新的例子。對(duì)于一個(gè)過擬合的模型,我們會(huì)得到一個(gè)完美/接近完美的訓(xùn)練集分?jǐn)?shù)和一個(gè)糟糕的驗(yàn)證集/測(cè)試分?jǐn)?shù)。

略有修改:"過擬合的原因:用一個(gè)復(fù)雜的模型來解決一個(gè)簡(jiǎn)單的問題,從數(shù)據(jù)中提取噪聲。因?yàn)樾?shù)據(jù)集作為訓(xùn)練集可能無法代表所有數(shù)據(jù)的正確表示。"

2、欠擬合

如果一個(gè)模型不能正確地學(xué)習(xí)數(shù)據(jù)中的模式,我們就說它是欠擬合的。欠擬合模型并不能完全學(xué)習(xí)數(shù)據(jù)集中的每一個(gè)例子。在這種情況下,我們看到訓(xùn)練集和驗(yàn)證集的誤差都很低。這可能是因?yàn)槟P吞?jiǎn)單,沒有足夠的參數(shù)來適應(yīng)數(shù)據(jù)。我們可以嘗試增加模型的復(fù)雜度,增加層數(shù)或神經(jīng)元的數(shù)量,來解決欠擬合問題。但是需要注意的是,增加模型復(fù)雜度也會(huì)增加過擬合的風(fēng)險(xiǎn)。

不足合適的原因: 使用一個(gè)簡(jiǎn)單的模型來解決一個(gè)復(fù)雜的問題,這個(gè)模型不能學(xué)習(xí)數(shù)據(jù)中的所有模式,或者模型錯(cuò)誤的學(xué)習(xí)了底層數(shù)據(jù)的模式。 在數(shù)據(jù)分析和機(jī)器學(xué)習(xí)中,模型的選擇是非常重要的。選擇適合問題的模型可以提高預(yù)測(cè)的準(zhǔn)確性和可靠性。對(duì)于復(fù)雜的問題,可能需要使用更復(fù)雜的模型來捕捉數(shù)據(jù)中的所有模式。另外,還需要考慮

學(xué)習(xí)曲線

學(xué)習(xí)曲線通過增量增加新的訓(xùn)練樣本來繪制訓(xùn)練樣本樣本本身的訓(xùn)練和驗(yàn)證損失??梢詭椭覀兇_定是否需要添加額外的訓(xùn)練示例來提高驗(yàn)證分?jǐn)?shù)(在未見過的數(shù)據(jù)上得分)。如果模型是過擬合的,那么添加額外的訓(xùn)練示例可能會(huì)提高模型在未見過的數(shù)據(jù)上的性能。同理,如果一個(gè)模型是欠擬合的,那么添加訓(xùn)練示例也許沒有什么用。 'learning_curve'方法可以從Scikit-Learn的'model_selection'模塊導(dǎo)入。

from sklearn.model_selection import learning_curve

我們將使用邏輯回歸和Iris數(shù)據(jù)進(jìn)行演示。創(chuàng)建一個(gè)名為“l(fā)earn_curve”的函數(shù),它將擬合邏輯回歸模型,并返回交叉驗(yàn)證分?jǐn)?shù)、訓(xùn)練分?jǐn)?shù)和學(xué)習(xí)曲線數(shù)據(jù)。

#The function below builds the model and returns cross validation scores, train score and learning curve data def learn_curve(X,y,c): ''' param X: Matrix of input featuresparam y: Vector of Target/Labelc: Inverse Regularization variable to control overfitting (high value causes overfitting, low value causes underfitting)''' '''We aren't splitting the data into train and test because we will use StratifiedKFoldCV.KFold CV is a preferred method compared to hold out CV, since the model is tested on all the examples.Hold out CV is preferred when the model takes too long to train and we have a huge test set that truly represents the universe'''  le = LabelEncoder() # Label encoding the target sc = StandardScaler() # Scaling the input features y = le.fit_transform(y)#Label Encoding the target log_reg = LogisticRegression(max_iter=200,random_state=11,C=c) # LogisticRegression model # Pipeline with scaling and classification as steps, must use a pipelne since we are using KFoldCV lr = Pipeline(steps=(['scaler',sc],['classifier',log_reg]))   cv = StratifiedKFold(n_splits=5,random_state=11,shuffle=True) # Creating a StratifiedKFold object with 5 folds cv_scores = cross_val_score(lr,X,y,scoring="accuracy",cv=cv) # Storing the CV scores (accuracy) of each fold   lr.fit(X,y) # Fitting the model  train_score = lr.score(X,y) # Scoring the model on train set  #Building the learning curve train_size,train_scores,test_scores =learning_curve(estimator=lr,X=X,y=y,cv=cv,scoring="accuracy",random_state=11) train_scores = 1-np.mean(train_scores,axis=1)#converting the accuracy score to misclassification rate test_scores = 1-np.mean(test_scores,axis=1)#converting the accuracy score to misclassification rate lc =pd.DataFrame({"Training_size":train_size,"Training_loss":train_scores,"Validation_loss":test_scores}).melt(id_vars="Training_size") return {"cv_scores":cv_scores,"train_score":train_score,"learning_curve":lc}

上面代碼很簡(jiǎn)單,就是我們?nèi)粘5挠?xùn)練過程,下面我們開始介紹學(xué)習(xí)曲線的用處

1、擬合模型的學(xué)習(xí)曲線

我們將使用'learn_curve'函數(shù)通過將反正則化變量/參數(shù)'c'設(shè)置為1來獲得一個(gè)良好的擬合模型(即我們不執(zhí)行任何正則化)。

lc = learn_curve(X,y,1) print(f'Cross Validation Accuracies:\n{"-"*25}\n{list(lc["cv_scores"])}\n\n\ Mean Cross Validation Accuracy:\n{"-"*25}\n{np.mean(lc["cv_scores"])}\n\n\ Standard Deviation of Deep HUB Cross Validation Accuracy:\n{"-"*25}\n{np.std(lc["cv_scores"])}\n\n\ Training Accuracy:\n{"-"*15}\n{lc["train_score"]}\n\n') sns.lineplot(data=lc["learning_curve"],x="Training_size",y="value",hue="variable") plt.title("Learning Curve of Good Fit Model") plt.ylabel("Misclassification Rate/Loss");

通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合

上面的結(jié)果中,交叉驗(yàn)證準(zhǔn)確率與訓(xùn)練準(zhǔn)確率接近。

通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合

訓(xùn)練的損失(藍(lán)色):一個(gè)好的擬合模型的學(xué)習(xí)曲線會(huì)隨著訓(xùn)練樣例的增加逐漸減小并逐漸趨于平坦,說明增加更多的訓(xùn)練樣例并不能提高模型在訓(xùn)練數(shù)據(jù)上的性能。

驗(yàn)證的損失(黃色):一個(gè)好的擬合模型的學(xué)習(xí)曲線在開始時(shí)具有較高的驗(yàn)證損失,隨著訓(xùn)練樣例的增加逐漸減小并逐漸趨于平坦,說明樣本越多,就能夠?qū)W習(xí)到更多的模式,這些模式對(duì)于”看不到“的數(shù)據(jù)會(huì)有幫助

最后還可以看到,在增加合理數(shù)量的訓(xùn)練樣例后,訓(xùn)練損失和驗(yàn)證損失彼此接近。

2、過擬合模型的學(xué)習(xí)曲線

我們將使用' learn_curve '函數(shù)通過將反正則化變量/參數(shù)' c '設(shè)置為10000來獲得過擬合模型(' c '的高值導(dǎo)致過擬合)。

lc = learn_curve(X,y,10000) print(f'Cross Validation Accuracies:\n{"-"*25}\n{list(lc["cv_scores"])}\n\n\ Mean Cross Validation Deep HUB Accuracy:\n{"-"*25}\n{np.mean(lc["cv_scores"])}\n\n\ Standard Deviation of Cross Validation Accuracy:\n{"-"*25}\n{np.std(lc["cv_scores"])} (High Variance)\n\n\ Training Accuracy:\n{"-"*15}\n{lc["train_score"]}\n\n') sns.lineplot(data=lc["learning_curve"],x="Training_size",y="value",hue="variable") plt.title("Learning Curve of an Overfit Model") plt.ylabel("Misclassification Rate/Loss");

通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合

與擬合模型相比,交叉驗(yàn)證精度的標(biāo)準(zhǔn)差較高。

通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合

過擬合模型的學(xué)習(xí)曲線一開始的訓(xùn)練損失很低,隨著訓(xùn)練樣例的增加,學(xué)習(xí)曲線逐漸增加,但不會(huì)變平。過擬合模型的學(xué)習(xí)曲線在開始時(shí)具有較高的驗(yàn)證損失,隨著訓(xùn)練樣例的增加逐漸減小并且不趨于平坦,說明增加更多的訓(xùn)練樣例可以提高模型在未知數(shù)據(jù)上的性能。同時(shí)還可以看到,訓(xùn)練損失和驗(yàn)證損失彼此相差很遠(yuǎn),在增加額外的訓(xùn)練數(shù)據(jù)時(shí),它們可能會(huì)彼此接近。

3、欠擬合模型的學(xué)習(xí)曲線

將反正則化變量/參數(shù)' c '設(shè)置為1/10000來獲得欠擬合模型(' c '的低值導(dǎo)致欠擬合)。

lc = learn_curve(X,y,1/10000) print(f'Cross Validation Accuracies:\n{"-"*25}\n{list(lc["cv_scores"])}\n\n\ Mean Cross Validation Accuracy:\n{"-"*25}\n{np.mean(lc["cv_scores"])}\n\n\ Standard Deviation of Cross Validation Accuracy:\n{"-"*25}\n{np.std(lc["cv_scores"])} (Low variance)\n\n\ Training Deep HUB Accuracy:\n{"-"*15}\n{lc["train_score"]}\n\n') sns.lineplot(data=lc["learning_curve"],x="Training_size",y="value",hue="variable") plt.title("Learning Curve of an Underfit Model") plt.ylabel("Misclassification Rate/Loss");

通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合

與過擬合和良好擬合模型相比,交叉驗(yàn)證精度的標(biāo)準(zhǔn)差較低。

通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合

欠擬合模型的學(xué)習(xí)曲線在開始時(shí)具有較低的訓(xùn)練損失,隨著訓(xùn)練樣例的增加逐漸增加,并在最后突然下降到任意最小點(diǎn)(最小并不意味著零損失)。這種最后的突然下跌可能并不總是會(huì)發(fā)生。這表明增加更多的訓(xùn)練樣例并不能提高模型在未知數(shù)據(jù)上的性能。

總結(jié)

在機(jī)器學(xué)習(xí)和統(tǒng)計(jì)建模中,過擬合(Overfitting)和欠擬合(Underfitting)是兩種常見的問題,它們描述了模型與訓(xùn)練數(shù)據(jù)的擬合程度如何影響模型在新數(shù)據(jù)上的表現(xiàn)。

分析生成的學(xué)習(xí)曲線時(shí),可以關(guān)注以下幾個(gè)方面:

  • 欠擬合:如果學(xué)習(xí)曲線顯示訓(xùn)練集和驗(yàn)證集的性能都比較低,或者兩者都隨著訓(xùn)練樣本數(shù)量的增加而緩慢提升,這通常表明模型欠擬合。這種情況下,模型可能太簡(jiǎn)單,無法捕捉數(shù)據(jù)中的基本模式。
  • 過擬合:如果訓(xùn)練集的性能隨著樣本數(shù)量的增加而提高,而驗(yàn)證集的性能在一定點(diǎn)后開始下降或停滯不前,這通常表示模型過擬合。在這種情況下,模型可能太復(fù)雜,過度適應(yīng)了訓(xùn)練數(shù)據(jù)中的噪聲而非潛在的數(shù)據(jù)模式。

根據(jù)學(xué)習(xí)曲線的分析,你可以采取以下策略進(jìn)行調(diào)整:

  • 對(duì)于欠擬合
  • 增加模型復(fù)雜度,例如使用更多的特征、更深的網(wǎng)絡(luò)或更多的參數(shù)。
  • 改善特征工程,嘗試不同的特征組合或轉(zhuǎn)換。
  • 增加迭代次數(shù)或調(diào)整學(xué)習(xí)率。
  • 對(duì)于過擬合
  • 使用正則化技術(shù)(如L1、L2正則化)。

  • 減少模型的復(fù)雜性,比如減少參數(shù)數(shù)量、層數(shù)或特征數(shù)量。

  • 增加更多的訓(xùn)練數(shù)據(jù)。

  • 應(yīng)用數(shù)據(jù)增強(qiáng)技術(shù)。

  • 使用早停(early stopping)等技術(shù)來避免過度訓(xùn)練。

通過這樣的分析和調(diào)整,學(xué)習(xí)曲線能夠幫助你更有效地優(yōu)化模型,并提高其在未知數(shù)據(jù)上的泛化能力。

以上是通過學(xué)習(xí)曲線識(shí)別過擬合和欠擬合的詳細(xì)內(nèi)容。更多信息請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本站聲明
本文內(nèi)容由網(wǎng)友自發(fā)貢獻(xiàn),版權(quán)歸原作者所有,本站不承擔(dān)相應(yīng)法律責(zé)任。如您發(fā)現(xiàn)有涉嫌抄襲侵權(quán)的內(nèi)容,請(qǐng)聯(lián)系admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣服圖片

Undresser.AI Undress

Undresser.AI Undress

人工智能驅(qū)動(dòng)的應(yīng)用程序,用于創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用于從照片中去除衣服的在線人工智能工具。

Clothoff.io

Clothoff.io

AI脫衣機(jī)

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智能換臉工具輕松在任何視頻中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的代碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

功能強(qiáng)大的PHP集成開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級(jí)代碼編輯軟件(SublimeText3)

熱門話題

Laravel 教程
1597
29
PHP教程
1488
72
字節(jié)跳動(dòng)剪映推出 SVIP 超級(jí)會(huì)員:連續(xù)包年 499 元,提供多種 AI 功能 字節(jié)跳動(dòng)剪映推出 SVIP 超級(jí)會(huì)員:連續(xù)包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日消息,剪映是由字節(jié)跳動(dòng)旗下臉萌科技開發(fā)的一款視頻剪輯軟件,依托于抖音平臺(tái)且基本面向該平臺(tái)用戶制作短視頻內(nèi)容,并兼容iOS、安卓、Windows、MacOS等操作系統(tǒng)。剪映官方宣布會(huì)員體系升級(jí),推出全新SVIP,包含多種AI黑科技,例如智能翻譯、智能劃重點(diǎn)、智能包裝、數(shù)字人合成等。價(jià)格方面,剪映SVIP月費(fèi)79元,年費(fèi)599元(本站注:折合每月49.9元),連續(xù)包月則為59元每月,連續(xù)包年為499元每年(折合每月41.6元)。此外,剪映官方還表示,為提升用戶體驗(yàn),向已訂閱了原版VIP

使用Rag和Sem-Rag提供上下文增強(qiáng)AI編碼助手 使用Rag和Sem-Rag提供上下文增強(qiáng)AI編碼助手 Jun 10, 2024 am 11:08 AM

通過將檢索增強(qiáng)生成和語義記憶納入AI編碼助手,提升開發(fā)人員的生產(chǎn)力、效率和準(zhǔn)確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI編程助手自然有幫助,但由于依賴對(duì)軟件語言和編寫軟件最常見模式的總體理解,因此常常無法提供最相關(guān)和正確的代碼建議。這些編碼助手生成的代碼適合解決他們負(fù)責(zé)解決的問題,但通常不符合各個(gè)團(tuán)隊(duì)的編碼標(biāo)準(zhǔn)、慣例和風(fēng)格。這通常會(huì)導(dǎo)致需要修改或完善其建議,以便將代碼接受到應(yīng)

七個(gè)很酷的GenAI & LLM技術(shù)性面試問題 七個(gè)很酷的GenAI & LLM技術(shù)性面試問題 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的內(nèi)容,請(qǐng)?jiān)L問:51CTOAI.x社區(qū)https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同于互聯(lián)網(wǎng)上隨處可見的傳統(tǒng)問題庫,這些問題需要跳出常規(guī)思維。大語言模型(LLM)在數(shù)據(jù)科學(xué)、生成式人工智能(GenAI)和人工智能領(lǐng)域越來越重要。這些復(fù)雜的算法提升了人類的技能,并在諸多行業(yè)中推動(dòng)了效率和創(chuàng)新性的提升,成為企業(yè)保持競(jìng)爭(zhēng)力的關(guān)鍵。LLM的應(yīng)用范圍非常廣泛,它可以用于自然語言處理、文本生成、語音識(shí)別和推薦系統(tǒng)等領(lǐng)域。通過學(xué)習(xí)大量的數(shù)據(jù),LLM能夠生成文本

微調(diào)真的能讓LLM學(xué)到新東西嗎:引入新知識(shí)可能讓模型產(chǎn)生更多的幻覺 微調(diào)真的能讓LLM學(xué)到新東西嗎:引入新知識(shí)可能讓模型產(chǎn)生更多的幻覺 Jun 11, 2024 pm 03:57 PM

大型語言模型(LLM)是在巨大的文本數(shù)據(jù)庫上訓(xùn)練的,在那里它們獲得了大量的實(shí)際知識(shí)。這些知識(shí)嵌入到它們的參數(shù)中,然后可以在需要時(shí)使用。這些模型的知識(shí)在訓(xùn)練結(jié)束時(shí)被“具體化”。在預(yù)訓(xùn)練結(jié)束時(shí),模型實(shí)際上停止學(xué)習(xí)。對(duì)模型進(jìn)行對(duì)齊或進(jìn)行指令調(diào)優(yōu),讓模型學(xué)習(xí)如何充分利用這些知識(shí),以及如何更自然地響應(yīng)用戶的問題。但是有時(shí)模型知識(shí)是不夠的,盡管模型可以通過RAG訪問外部?jī)?nèi)容,但通過微調(diào)使用模型適應(yīng)新的領(lǐng)域被認(rèn)為是有益的。這種微調(diào)是使用人工標(biāo)注者或其他llm創(chuàng)建的輸入進(jìn)行的,模型會(huì)遇到額外的實(shí)際知識(shí)并將其整合

你所不知道的機(jī)器學(xué)習(xí)五大學(xué)派 你所不知道的機(jī)器學(xué)習(xí)五大學(xué)派 Jun 05, 2024 pm 08:51 PM

機(jī)器學(xué)習(xí)是人工智能的重要分支,它賦予計(jì)算機(jī)從數(shù)據(jù)中學(xué)習(xí)的能力,并能夠在無需明確編程的情況下改進(jìn)自身能力。機(jī)器學(xué)習(xí)在各個(gè)領(lǐng)域都有著廣泛的應(yīng)用,從圖像識(shí)別和自然語言處理到推薦系統(tǒng)和欺詐檢測(cè),它正在改變我們的生活方式。機(jī)器學(xué)習(xí)領(lǐng)域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為“機(jī)器學(xué)習(xí)五大派”。這五大派分別為符號(hào)派、聯(lián)結(jié)派、進(jìn)化派、貝葉斯派和類推學(xué)派。1.符號(hào)學(xué)派符號(hào)學(xué)(Symbolism),又稱為符號(hào)主義,強(qiáng)調(diào)利用符號(hào)進(jìn)行邏輯推理和表達(dá)知識(shí)。該學(xué)派認(rèn)為學(xué)習(xí)是一種逆向演繹的過程,通過已有的

為大模型提供全新科學(xué)復(fù)雜問答基準(zhǔn)與測(cè)評(píng)體系,UNSW、阿貢、芝加哥大學(xué)等多家機(jī)構(gòu)聯(lián)合推出SciQAG框架 為大模型提供全新科學(xué)復(fù)雜問答基準(zhǔn)與測(cè)評(píng)體系,UNSW、阿貢、芝加哥大學(xué)等多家機(jī)構(gòu)聯(lián)合推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)數(shù)據(jù)集在推動(dòng)自然語言處理(NLP)研究發(fā)揮著至關(guān)重要的作用。高質(zhì)量QA數(shù)據(jù)集不僅可以用于微調(diào)模型,也可以有效評(píng)估大語言模型(LLM)的能力,尤其是針對(duì)科學(xué)知識(shí)的理解和推理能力。盡管當(dāng)前已有許多科學(xué)QA數(shù)據(jù)集,涵蓋了醫(yī)學(xué)、化學(xué)、生物等領(lǐng)域,但這些數(shù)據(jù)集仍存在一些不足。其一,數(shù)據(jù)形式較為單一,大多數(shù)為多項(xiàng)選擇題(multiple-choicequestions),它們易于進(jìn)行評(píng)估,但限制了模型的答案選擇范圍,無法充分測(cè)試模型的科學(xué)問題解答能力。相比之下,開放式問答

VSCode 前端開發(fā)新紀(jì)元:12款 AI 代碼助手大推薦 VSCode 前端開發(fā)新紀(jì)元:12款 AI 代碼助手大推薦 Jun 11, 2024 pm 07:47 PM

在前端開發(fā)的世界里,VSCode以其強(qiáng)大的功能和豐富的插件生態(tài),成為了無數(shù)開發(fā)者的首選工具。而近年來,隨著人工智能技術(shù)的飛速發(fā)展,VSCode上的AI代碼助手也如雨后春筍般涌現(xiàn),極大地提升了開發(fā)者的編碼效率。VSCode上的AI代碼助手,如雨后春筍般涌現(xiàn),極大地提升了開發(fā)者的編碼效率。它利用人工智能技術(shù),能夠智能地分析代碼,提供精準(zhǔn)的代碼補(bǔ)全、自動(dòng)糾錯(cuò)、語法檢查等功能,極大地減少了開發(fā)者在編碼過程中的錯(cuò)誤和繁瑣的手工工作。有今天,就為大家推薦12款VSCode前端開發(fā)AI代碼助手,助你在編程之路

SK 海力士 8 月 6 日將展示 AI 相關(guān)新品:12 層 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日將展示 AI 相關(guān)新品:12 層 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)發(fā)布博文,宣布將出席8月6日至8日,在美國加利福尼亞州圣克拉拉舉行的全球半導(dǎo)體存儲(chǔ)器峰會(huì)FMS2024,展示諸多新一代產(chǎn)品。未來存儲(chǔ)器和存儲(chǔ)峰會(huì)(FutureMemoryandStorage)簡(jiǎn)介前身是主要面向NAND供應(yīng)商的閃存峰會(huì)(FlashMemorySummit),在人工智能技術(shù)日益受到關(guān)注的背景下,今年重新命名為未來存儲(chǔ)器和存儲(chǔ)峰會(huì)(FutureMemoryandStorage),以邀請(qǐng)DRAM和存儲(chǔ)供應(yīng)商等更多參與者。新產(chǎn)品SK海力士去年在

See all articles