亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

目錄
循環(huán)神經(jīng)網(wǎng)路(RNN)
RNN的優(yōu)點(diǎn)
RNN的缺點(diǎn)
長(zhǎng)短期記憶(LSTM)
LSTM的優(yōu)點(diǎn)
LSTM的缺點(diǎn)
門控循環(huán)單元(GRU)
GRU的優(yōu)勢(shì)
GRU的缺點(diǎn)
首頁(yè) 科技週邊 人工智慧 探究RNN、LSTM和GRU的概念、區(qū)別和優(yōu)劣

探究RNN、LSTM和GRU的概念、區(qū)別和優(yōu)劣

Jan 22, 2024 pm 07:51 PM
人工智慧 機(jī)器學(xué)習(xí) 人工神經(jīng)網(wǎng)絡(luò)

探究RNN、LSTM和GRU的概念、區(qū)別和優(yōu)劣

在時(shí)間序列資料中,觀察值之間存在依賴關(guān)係,因此它們不是相互獨(dú)立的。然而,傳統(tǒng)的神經(jīng)網(wǎng)路將每個(gè)觀察視為獨(dú)立的,這限制了模型對(duì)時(shí)間序列資料的建模能力。為了解決這個(gè)問(wèn)題,循環(huán)神經(jīng)網(wǎng)路(RNN)被引入,它引入了記憶的概念,透過(guò)在網(wǎng)路中建立資料點(diǎn)之間的依賴關(guān)係來(lái)捕捉時(shí)間序列資料的動(dòng)態(tài)特性。透過(guò)循環(huán)連接,RNN可以將先前的資訊傳遞到當(dāng)前觀察中,從而更好地預(yù)測(cè)未來(lái)的值。這使得RNN成為處理時(shí)間序列資料任務(wù)的強(qiáng)大工具。

但是RNN是如何實(shí)現(xiàn)這種記憶的呢?

RNN透過(guò)神經(jīng)網(wǎng)路中的回饋迴路實(shí)現(xiàn)記憶,這是RNN與傳統(tǒng)神經(jīng)網(wǎng)路的主要差異?;仞佫捖吩试S訊息在層內(nèi)傳遞,而前饋神經(jīng)網(wǎng)路的訊息僅在層之間傳遞。因此,有了不同類型的RNN:

  • #循環(huán)神經(jīng)網(wǎng)路(RNN)
  • 長(zhǎng)短期記憶網(wǎng)路(LSTM)
  • 門控循環(huán)單元網(wǎng)路(GRU)

本文將介紹RNN、LSTM和GRU的概念和異同點(diǎn),以及它們的一些優(yōu)點(diǎn)和缺點(diǎn)。

循環(huán)神經(jīng)網(wǎng)路(RNN)

透過(guò)回饋迴路,一個(gè)RNN單元的輸出也被同一單元用作輸入。因此,每個(gè)RNN都有兩個(gè)輸入:過(guò)去和現(xiàn)在。使用過(guò)去的資訊會(huì)產(chǎn)生短期記憶。

為了更好地理解,可以展開(kāi)RNN單元的回饋循環(huán)。展開(kāi)單元格的長(zhǎng)度等於輸入序列的時(shí)間步數(shù)。

可以看到過(guò)去的觀察結(jié)果是如何作為隱藏狀態(tài)透過(guò)展開(kāi)的網(wǎng)路傳遞的。在每個(gè)單元格中,當(dāng)前時(shí)間步的輸入、前一時(shí)間步的隱藏狀態(tài)和偏移組合,然後透過(guò)啟動(dòng)函數(shù)限制以確定當(dāng)前時(shí)間的隱藏狀態(tài)步。

RNN可用於一對(duì)一、一對(duì)多、多對(duì)一和多對(duì)多預(yù)測(cè)。

RNN的優(yōu)點(diǎn)

由於其短期記憶,RNN可以處理順序資料並識(shí)別歷史資料中的模式。此外,RNN能夠處理不同長(zhǎng)度的輸入。

RNN的缺點(diǎn)

RNN存在梯度下降消失的問(wèn)題。在這種情況下,用於在反向傳播期間更新權(quán)重的梯度變得非常小。將權(quán)重與接近零的梯度相乘會(huì)阻止網(wǎng)路學(xué)習(xí)新的權(quán)重。停止學(xué)習(xí)會(huì)導(dǎo)致RNN忘記在較長(zhǎng)序列中看到的內(nèi)容。梯度下降消失的問(wèn)題隨著網(wǎng)路層數(shù)的增加而增加。

由於RNN只保留最近的訊息,所以模型在考慮過(guò)去的觀察時(shí)會(huì)出現(xiàn)問(wèn)題。因此,RNN只有短期記憶而沒(méi)有長(zhǎng)期記憶。

此外,由於RNN使用反向傳播及時(shí)更新權(quán)重,網(wǎng)路也會(huì)遭受梯度爆炸的影響,如果使用ReLu激活函數(shù),則會(huì)受到死亡ReLu單元的影響。前者可能會(huì)導(dǎo)致收斂問(wèn)題,而後者會(huì)導(dǎo)致停止學(xué)習(xí)。

長(zhǎng)短期記憶(LSTM)

LSTM是一種特殊類型的RNN,它解決了RNN會(huì)梯度消失的問(wèn)題。

LSTM的關(guān)鍵是單元狀態(tài),它從單元的輸入傳遞到輸出。單元狀態(tài)允許資訊沿著整個(gè)鏈流動(dòng),僅通過(guò)三個(gè)門進(jìn)行較小的線性動(dòng)作。因此,單元狀態(tài)代表LSTM的長(zhǎng)期記憶。這三個(gè)閘分別稱為遺忘閘、輸入閘和輸出閘。這些門用作過(guò)濾器並控制資訊流並確定保留或忽略哪些資訊。

遺忘門決定了應(yīng)該保留多少長(zhǎng)期記憶。為此,使用了一個(gè)sigmoid函數(shù)來(lái)說(shuō)明單元狀態(tài)的重要性。輸出在0和1之間變化,0即不保留任何資訊;1則保留單元狀態(tài)的所有資訊。

輸入門決定將哪些資訊加入單元狀態(tài),從而添加到長(zhǎng)期記憶中。

輸出閘決定單元狀態(tài)的哪些部分建置輸出。因此,輸出門負(fù)責(zé)短期記憶。

總的來(lái)說(shuō),狀態(tài)透過(guò)遺忘閘和輸入閘更新。

LSTM的優(yōu)點(diǎn)

LSTM的優(yōu)點(diǎn)類似於RNN,主要優(yōu)點(diǎn)是它們可以捕捉序列的長(zhǎng)期和短期模式。因此,它們是最常用的RNN。

LSTM的缺點(diǎn)

由於結(jié)構(gòu)更複雜,LSTM的計(jì)算成本更高,導(dǎo)致訓(xùn)練時(shí)間更長(zhǎng)。

由於LSTM也使用時(shí)間反向傳播演算法來(lái)更新權(quán)重,因此LSTM有反向傳播的缺點(diǎn),如死亡ReLu單元、梯度爆炸等。

門控循環(huán)單元(GRU)

#與LSTM類似,GRU解決了簡(jiǎn)單RNN的梯度消失問(wèn)題。然而,與LSTM的不同之處在於GRU使用較少的門並且沒(méi)有單獨(dú)的內(nèi)部記憶體,即單元狀態(tài)。因此,GRU完全依賴隱藏狀態(tài)作為記憶,導(dǎo)致更簡(jiǎn)單的架構(gòu)。

重置門負(fù)責(zé)短期記憶,因?yàn)樗鼪Q定保留和忽略多少過(guò)去的資訊。

更新門負(fù)責(zé)長(zhǎng)期記憶,可與LSTM的遺忘門相媲美。

#

目前時(shí)間步的隱藏狀態(tài)是基於兩個(gè)步驟確定的:

首先,確定候選隱藏狀態(tài)。候選狀態(tài)是當(dāng)前輸入和前一時(shí)間步的隱藏狀態(tài)以及激活函數(shù)的組合。前一個(gè)隱藏狀態(tài)對(duì)候選隱藏狀態(tài)的影響由重置閘門控制。

第二步,將候選隱藏狀態(tài)與上一時(shí)間步的隱藏狀態(tài)結(jié)合,產(chǎn)生目前隱藏狀態(tài)。先前的隱藏狀態(tài)和候選隱藏狀態(tài)如何組合由更新閘決定。

如果更新閘門給出的值為0,則完全忽略先前的隱藏狀態(tài),目前隱藏狀態(tài)等於候選隱藏狀態(tài)。如果更新門給出的值為1,則相反。

GRU的優(yōu)勢(shì)

由於與LSTM相比有著更簡(jiǎn)單的架構(gòu),GRU的運(yùn)算效率更高,訓(xùn)練速度更快,只需要更少的記憶體。

此外,GRU已被證明對(duì)於較小的序列更有效。

GRU的缺點(diǎn)

由於GRU沒(méi)有單獨(dú)的隱藏狀態(tài)和細(xì)胞狀態(tài),因此它們可能無(wú)法像LSTM一樣考慮過(guò)去的觀察結(jié)果。

與RNN和LSTM類似,GRU也可能遭受反向傳播及時(shí)更新權(quán)重的缺點(diǎn),即死亡ReLu單元、梯度爆炸。

以上是探究RNN、LSTM和GRU的概念、區(qū)別和優(yōu)劣的詳細(xì)內(nèi)容。更多資訊請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願(yuàn)投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請(qǐng)聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動(dòng)的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開(kāi)發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺(jué)化網(wǎng)頁(yè)開(kāi)發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級(jí)程式碼編輯軟體(SublimeText3)

熱門話題

Laravel 教程
1597
29
PHP教程
1488
72
位元組跳動(dòng)剪映推出 SVIP 超級(jí)會(huì)員:連續(xù)包年 499 元,提供多種 AI 功能 位元組跳動(dòng)剪映推出 SVIP 超級(jí)會(huì)員:連續(xù)包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動(dòng)旗下臉萌科技開(kāi)發(fā)的一款影片剪輯軟體,依託於抖音平臺(tái)且基本面向該平臺(tái)用戶製作短影片內(nèi)容,並相容於iOS、安卓、Windows 、MacOS等作業(yè)系統(tǒng)。剪映官方宣布會(huì)員體系升級(jí),推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點(diǎn)、智慧包裝、數(shù)位人合成等。價(jià)格方面,剪映SVIP月費(fèi)79元,年費(fèi)599元(本站註:折合每月49.9元),連續(xù)包月則為59元每月,連續(xù)包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗(yàn),向已訂閱了原版VIP

使用Rag和Sem-Rag提供上下文增強(qiáng)AI編碼助手 使用Rag和Sem-Rag提供上下文增強(qiáng)AI編碼助手 Jun 10, 2024 am 11:08 AM

透過(guò)將檢索增強(qiáng)生成和語(yǔ)意記憶納入AI編碼助手,提升開(kāi)發(fā)人員的生產(chǎn)力、效率和準(zhǔn)確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設(shè)計(jì)助理自然有幫助,但由於依賴對(duì)軟體語(yǔ)言和編寫軟體最常見(jiàn)模式的整體理解,因此常常無(wú)法提供最相關(guān)和正確的程式碼建議。這些編碼助手產(chǎn)生的代碼適合解決他們負(fù)責(zé)解決的問(wèn)題,但通常不符合各個(gè)團(tuán)隊(duì)的編碼標(biāo)準(zhǔn)、慣例和風(fēng)格。這通常會(huì)導(dǎo)致需要修改或完善其建議,以便將程式碼接受到應(yīng)

七個(gè)很酷的GenAI & LLM技術(shù)性面試問(wèn)題 七個(gè)很酷的GenAI & LLM技術(shù)性面試問(wèn)題 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的內(nèi)容,請(qǐng)?jiān)煸L:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網(wǎng)路上隨處可見(jiàn)的傳統(tǒng)問(wèn)題庫(kù),這些問(wèn)題需要跳脫常規(guī)思維。大語(yǔ)言模型(LLM)在數(shù)據(jù)科學(xué)、生成式人工智慧(GenAI)和人工智慧領(lǐng)域越來(lái)越重要。這些複雜的演算法提升了人類的技能,並在許多產(chǎn)業(yè)中推動(dòng)了效率和創(chuàng)新性的提升,成為企業(yè)保持競(jìng)爭(zhēng)力的關(guān)鍵。 LLM的應(yīng)用範(fàn)圍非常廣泛,它可以用於自然語(yǔ)言處理、文字生成、語(yǔ)音辨識(shí)和推薦系統(tǒng)等領(lǐng)域。透過(guò)學(xué)習(xí)大量的數(shù)據(jù),LLM能夠產(chǎn)生文本

微調(diào)真的能讓LLM學(xué)到新東西嗎:引入新知識(shí)可能讓模型產(chǎn)生更多的幻覺(jué) 微調(diào)真的能讓LLM學(xué)到新東西嗎:引入新知識(shí)可能讓模型產(chǎn)生更多的幻覺(jué) Jun 11, 2024 pm 03:57 PM

大型語(yǔ)言模型(LLM)是在龐大的文字資料庫(kù)上訓(xùn)練的,在那裡它們獲得了大量的實(shí)際知識(shí)。這些知識(shí)嵌入到它們的參數(shù)中,然後可以在需要時(shí)使用。這些模型的知識(shí)在訓(xùn)練結(jié)束時(shí)被「具體化」。在預(yù)訓(xùn)練結(jié)束時(shí),模型實(shí)際上停止學(xué)習(xí)。對(duì)模型進(jìn)行對(duì)齊或進(jìn)行指令調(diào)優(yōu),讓模型學(xué)習(xí)如何充分利用這些知識(shí),以及如何更自然地回應(yīng)使用者的問(wèn)題。但是有時(shí)模型知識(shí)是不夠的,儘管模型可以透過(guò)RAG存取外部?jī)?nèi)容,但透過(guò)微調(diào)使用模型適應(yīng)新的領(lǐng)域被認(rèn)為是有益的。這種微調(diào)是使用人工標(biāo)註者或其他llm創(chuàng)建的輸入進(jìn)行的,模型會(huì)遇到額外的實(shí)際知識(shí)並將其整合

你所不知道的機(jī)器學(xué)習(xí)五大學(xué)派 你所不知道的機(jī)器學(xué)習(xí)五大學(xué)派 Jun 05, 2024 pm 08:51 PM

機(jī)器學(xué)習(xí)是人工智慧的重要分支,它賦予電腦從數(shù)據(jù)中學(xué)習(xí)的能力,並能夠在無(wú)需明確編程的情況下改進(jìn)自身能力。機(jī)器學(xué)習(xí)在各個(gè)領(lǐng)域都有廣泛的應(yīng)用,從影像辨識(shí)和自然語(yǔ)言處理到推薦系統(tǒng)和詐欺偵測(cè),它正在改變我們的生活方式。機(jī)器學(xué)習(xí)領(lǐng)域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機(jī)器學(xué)習(xí)五大派」。這五大派分別為符號(hào)派、聯(lián)結(jié)派、進(jìn)化派、貝葉斯派和類推學(xué)派。 1.符號(hào)學(xué)派符號(hào)學(xué)(Symbolism),又稱符號(hào)主義,強(qiáng)調(diào)利用符號(hào)進(jìn)行邏輯推理和表達(dá)知識(shí)。該學(xué)派認(rèn)為學(xué)習(xí)是一種逆向演繹的過(guò)程,透過(guò)現(xiàn)有的

為大模型提供全新科學(xué)複雜問(wèn)答基準(zhǔn)與評(píng)估體系,UNSW、阿貢、芝加哥大學(xué)等多家機(jī)構(gòu)共同推出SciQAG框架 為大模型提供全新科學(xué)複雜問(wèn)答基準(zhǔn)與評(píng)估體系,UNSW、阿貢、芝加哥大學(xué)等多家機(jī)構(gòu)共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問(wèn)答(QA)資料集在推動(dòng)自然語(yǔ)言處理(NLP)研究中發(fā)揮著至關(guān)重要的作用。高品質(zhì)QA資料集不僅可以用於微調(diào)模型,也可以有效評(píng)估大語(yǔ)言模型(LLM)的能力,尤其是針對(duì)科學(xué)知識(shí)的理解和推理能力。儘管目前已有許多科學(xué)QA數(shù)據(jù)集,涵蓋了醫(yī)學(xué)、化學(xué)、生物等領(lǐng)域,但這些數(shù)據(jù)集仍有一些不足之處。其一,資料形式較為單一,大多數(shù)為多項(xiàng)選擇題(multiple-choicequestions),它們易於進(jìn)行評(píng)估,但限制了模型的答案選擇範(fàn)圍,無(wú)法充分測(cè)試模型的科學(xué)問(wèn)題解答能力。相比之下,開(kāi)放式問(wèn)答

VSCode 前端開(kāi)發(fā)新紀(jì)元:12款 AI 代碼助理推薦 VSCode 前端開(kāi)發(fā)新紀(jì)元:12款 AI 代碼助理推薦 Jun 11, 2024 pm 07:47 PM

在前端開(kāi)發(fā)的世界裡,VSCode以其強(qiáng)大的功能和豐富的插件生態(tài),成為了無(wú)數(shù)開(kāi)發(fā)者的首選工具。而近年來(lái),隨著人工智慧技術(shù)的快速發(fā)展,VSCode上的AI代碼助理也如雨後春筍般湧現(xiàn),大大提升了開(kāi)發(fā)者的編碼效率。 VSCode上的AI代碼助手,如雨後春筍般湧現(xiàn),大大提升了開(kāi)發(fā)者的編碼效率。它利用人工智慧技術(shù),能夠聰明地分析程式碼,提供精準(zhǔn)的程式碼補(bǔ)全、自動(dòng)糾錯(cuò)、語(yǔ)法檢查等功能,大大減少了開(kāi)發(fā)者在編碼過(guò)程中的錯(cuò)誤和繁瑣的手工工作。有今天,就為大家推薦12款VSCode前端開(kāi)發(fā)AI程式碼助手,幫助你在程式設(shè)計(jì)之路

SK 海力士 8 月 6 日將展示 AI 相關(guān)新品:12 層 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日將展示 AI 相關(guān)新品:12 層 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)發(fā)布博文,宣布將出席8月6日至8日,在美國(guó)加州聖克拉拉舉行的全球半導(dǎo)體記憶體峰會(huì)FMS2024,展示諸多新一代產(chǎn)品。未來(lái)記憶體和儲(chǔ)存高峰會(huì)(FutureMemoryandStorage)簡(jiǎn)介前身是主要面向NAND供應(yīng)商的快閃記憶體高峰會(huì)(FlashMemorySummit),在人工智慧技術(shù)日益受到關(guān)注的背景下,今年重新命名為未來(lái)記憶體和儲(chǔ)存高峰會(huì)(FutureMemoryandStorage),以邀請(qǐng)DRAM和儲(chǔ)存供應(yīng)商等更多參與者。新產(chǎn)品SK海力士去年在

See all articles