亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

目錄
學(xué)習(xí)目標(biāo)
目錄
什麼是連續(xù)的單詞模型?
連續(xù)的單詞如何工作
了解上下文和目標(biāo)詞
CBOW的逐步過程
步驟1:數(shù)據(jù)準(zhǔn)備
步驟2:生成上下文目標(biāo)對
步驟3:單速編碼
步驟4:嵌入層
步驟5:上下文聚合
步驟6:預(yù)測
步驟7:損失計(jì)算和優(yōu)化
步驟8:對所有對重複
CBow架構(gòu)詳細(xì)解釋
輸入層
嵌入層
隱藏層:上下文聚合
輸出層
損失功能
CBOW的示例
CBOW建築圖
從頭開始編碼CBOW(帶有Python的示例)
準(zhǔn)備CBOW數(shù)據(jù)
創(chuàng)建字典一詞
一式編碼示例
從頭開始構(gòu)建CBOW模型
使用TensorFlow實(shí)現(xiàn)CBOW
使用Gensim進(jìn)行CBOW
連續(xù)袋的優(yōu)點(diǎn)
連續(xù)的單詞袋的局限
結(jié)論
關(guān)鍵要點(diǎn)
常見問題
首頁 科技週邊 人工智慧 了解連續(xù)的單詞袋(CBOW)

了解連續(xù)的單詞袋(CBOW)

Mar 17, 2025 am 09:46 AM

語義很重要,因?yàn)樵贜LP中,這是正在研究的單詞之間的關(guān)係。最簡單但最有效的過程之一是連續(xù)的單詞袋(CBOW),將單詞映射到稱為單詞向量的高度有意義的向量。 CBow在Word2Vec框架中使用,並根據(jù)與之相鄰的單詞預(yù)測一個(gè)單詞,該單詞捕獲了語言的語義和語法含義。在本文中,讀者將了解CBOW模型的操作以及其使用方法。

學(xué)習(xí)目標(biāo)

  • 了解CBOW模型背後的理論。
  • 了解CBow和Skip-gram之間的差異。
  • 使用示例數(shù)據(jù)集實(shí)現(xiàn)Python中的CBOW模型。
  • 分析CBOW的優(yōu)勢和局限性。
  • 探索CBOW生成的單詞嵌入的用例。

目錄

  • 什麼是連續(xù)的單詞模型?
  • 連續(xù)的單詞如何工作
  • CBow架構(gòu)詳細(xì)解釋
  • 從頭開始編碼CBOW(帶有Python的示例)
  • 連續(xù)袋的優(yōu)點(diǎn)
  • 連續(xù)的單詞袋的局限
  • 常見問題

什麼是連續(xù)的單詞模型?

連續(xù)的單詞袋(CBOW)也是一種模型,它在使用神經(jīng)網(wǎng)絡(luò)確定嵌入單詞時(shí)使用,並且是Tomas Mikolov的Word2Vec模型的一部分。 CBow試圖根據(jù)給定句子觀察的上下文單詞預(yù)測目標(biāo)詞。這樣,它就能捕獲語義關(guān)係,因此在高維空間中密切表示近距離表示。

例如,在“貓坐在墊子上”的句子中,如果上下文窗口大小為2,則“ sat”的上下文單詞是[“”,“”,“ cat”,“ on”,“ the”] ,並且該模型的任務(wù)是預(yù)測“ sat”一詞。

CBOW通過匯總上下文單詞(例如,平均嵌入)並使用此匯總表示來預(yù)測目標(biāo)單詞來運(yùn)行。該模型的體系結(jié)構(gòu)涉及上下文單詞的輸入層,用於嵌入生成的隱藏層以及使用概率分佈預(yù)測目標(biāo)單詞的輸出層。

這是一個(gè)適合處理頻繁單詞的快速高效模型,非常適合需要語義理解的任務(wù),例如文本分類,推薦系統(tǒng)和情感分析。

連續(xù)的單詞如何工作

CBow是根據(jù)上下文的最簡單,有效的技術(shù)之一,用於單詞嵌入,其中整個(gè)單詞的詞彙映射到向量。本節(jié)還將CBOW系統(tǒng)的操作描述為在其最基本的層面上理解該方法的一種手段,討論了基於CBOW方法的主要思想,並為CBOW命中計(jì)算系統(tǒng)的架構(gòu)佈局提供了綜合指南。

了解上下文和目標(biāo)詞

CBow依靠兩個(gè)關(guān)鍵概念:上下文單詞和目標(biāo)詞。

  • 上下文詞:這些是定義的窗口大小中的目標(biāo)詞圍繞目標(biāo)單詞的單詞。例如,在句子中:
    “快速的棕色狐貍跳過懶狗” ,
    如果目標(biāo)詞是“ fox” ,而上下文窗口大小為2,則上下文單詞為[“快速”,“棕色”,“跳”,“ Over”] 。
  • 目標(biāo)詞:這是CBOW旨在預(yù)測上下文單詞的單詞。在上面的示例中,目標(biāo)詞是“狐貍” 。

通過分析上下文與大型語料庫中的目標(biāo)單詞之間的關(guān)係,CBOW生成嵌入,以捕獲單詞之間的語義關(guān)係。

CBOW的逐步過程

這是CBOW工作原理的細(xì)分,分步:

步驟1:數(shù)據(jù)準(zhǔn)備

  • 選擇文本語料庫(例如,句子或段落)。
  • 將文本歸為單詞並構(gòu)建詞彙。
  • 定義上下文窗口大小nnn(例如,每側(cè)2個(gè)單詞)。

步驟2:生成上下文目標(biāo)對

  • 對於語料庫中的每個(gè)單詞,請根據(jù)窗口大小提取其周圍的上下文單詞。
  • 示例:對於“我愛機(jī)器學(xué)習(xí)”和n = 2n = 2n = 2的句子,對是:目標(biāo)詞上下文單詞愛[i”,“ machine”]機(jī)器[“愛”,“學(xué)習(xí)”]

步驟3:單速編碼

基於詞彙大小,將上下文單詞和目標(biāo)單詞轉(zhuǎn)換為單熱矢量。對於大小5的詞彙,“愛”一詞的單次表示可能看起來像[0、1、0、0、0、0] 。

步驟4:嵌入層

通過嵌入層傳遞單熱編碼的上下文單詞。該層將每個(gè)單詞映射到密集的向量表示,通常比詞彙大小較低。

步驟5:上下文聚合

匯總所有上下文單詞的嵌入(例如,平均或求和它們)形成單個(gè)上下文向量。

步驟6:預(yù)測

  • 將聚合的上下文向量饋入具有軟磁輸出層的完全連接的神經(jīng)網(wǎng)絡(luò)。
  • 該模型根據(jù)詞彙上的概率分佈預(yù)測最可能的單詞作為目標(biāo)。

步驟7:損失計(jì)算和優(yōu)化

  • 使用跨透鏡損失函數(shù)計(jì)算預(yù)測和實(shí)際目標(biāo)詞之間的誤差。
  • 反向傳播誤差以調(diào)整嵌入和預(yù)測層中的權(quán)重。

步驟8:對所有對重複

重複語料庫中所有上下文目標(biāo)對的過程,直到模型收斂為止。

CBow架構(gòu)詳細(xì)解釋

連續(xù)的單詞(CBOW)模型架構(gòu)旨在根據(jù)其周圍上下文單詞進(jìn)行預(yù)測目標(biāo)單詞。它是一個(gè)具有直接但有效結(jié)構(gòu)的淺神經(jīng)網(wǎng)絡(luò)。 CBOW架構(gòu)由以下組件組成:

輸入層

  • 輸入表示
    該模型的輸入是上下文單詞表示為單熱編碼向量。
    • 如果詞彙大小為v,則每個(gè)單詞表示為大小為V的單式向量,在索引處單個(gè)1表示與單詞相對應(yīng)的索引,而在其他地方為0。
    • 例如,如果詞彙為[“貓”,“狗”,“狐貍”,“樹”,“鳥”]和“狐貍”一詞是第三個(gè)單詞,則其一hot矢量為[0,0,1,0,0] [0,0,0,0,1,1,0,0,0] [0,0,1,1,0,0]。
  • 上下文窗口
    上下文窗口大小n確定了使用的上下文單詞的數(shù)量。如果n = 2,則使用目標(biāo)單詞的每一側(cè)兩個(gè)單詞。
    • 對於句子: “快速的棕色狐貍跳過懶狗”和目標(biāo)單詞“狐貍” ,n = 2的上下文單詞是[“快速”,“棕色”,“跳躍”,“ Over”] 。

嵌入層

  • 目的
    該層將在高尺寸中存在的單熱量向量轉(zhuǎn)換為最大密度和低尺寸向量。與以下事實(shí)相反:在單詞嵌入單詞中被表示為具有零值的向量,在嵌入式層中,每個(gè)單詞都由所需維度的連續(xù)向量編碼,這些維度反映了單詞含義的特定特徵。
  • 單詞嵌入矩陣
    嵌入層保持一個(gè)單詞嵌入尺寸v×d的矩陣W,其中v是詞彙大小,d是嵌入尺寸。
    • W的每一行代表單詞的嵌入。
    • 對於單熱向量XXX,將嵌入計(jì)算為W^TX X。
  • 上下文詞嵌入
    使用嵌入矩陣將每個(gè)上下文單詞轉(zhuǎn)換為相應(yīng)的緻密矢量。如果窗口大小n = 2,並且我們有4個(gè)上下文單詞,則提取了這些單詞的嵌入。

隱藏層:上下文聚合

  • 目的
    將上下文單詞的嵌入組合在一起以形成單個(gè)上下文向量。
  • 聚合方法
    • 平均值:所有上下文單詞的嵌入平均以計(jì)算上下文向量。

了解連續(xù)的單詞袋(CBOW)

  • 求和:嵌入而不是平均,而是求和。

了解連續(xù)的單詞袋(CBOW)

  • 結(jié)果上下文向量:結(jié)果是單個(gè)密集的向量HHH,代表周圍單詞的匯總上下文。

輸出層

  • 目的:輸出層使用上下文向量HHH預(yù)測目標(biāo)單詞。
  • 完全連接的層:上下文向量HHH通過一個(gè)完全連接的層,該層輸出了詞彙中每個(gè)單詞的原始分?jǐn)?shù)。這些分?jǐn)?shù)稱為邏輯。
  • Softmax Function : The logits are passed through a softmax function to compute a probability distribution over the vocabulary:

了解連續(xù)的單詞袋(CBOW)

  • 預(yù)測的目標(biāo)詞:第一個(gè)原因是,在SoftMax輸出時(shí),該算法將目標(biāo)詞定義為具有最高概率的單詞。

損失功能

  • 跨透鏡損失用於將預(yù)測的概率分佈與實(shí)際目標(biāo)詞(地面真相)進(jìn)行比較。
  • 使用隨機(jī)梯度下降(SGD)或其變體等優(yōu)化技術(shù)將損失最小化。

CBOW的示例

輸入
句子: “我愛機(jī)器學(xué)習(xí)” ,目標(biāo)詞: “機(jī)器” ,上下文詞: [“我”,“愛”,“學(xué)習(xí)”] 。

單速編碼
詞?。?[“我”,“愛”,“機(jī)器”,“學(xué)習(xí)”,“ AI”]

  • 一旋向量:
    • “ i”:[1,0,0,0,0] [1,0,0,0,0] [1,0,0,0,0]
    • “愛”:[0,1,0,0,0] [0、1、0、0、0] [0,1,0,0,0]
    • “學(xué)習(xí)”:[0,0,0,1,0] [0,0,0,1,0] [0,0,0,1,0]

嵌入層

  • 嵌入尺寸:d = 3。
  • 嵌入矩陣W:

了解連續(xù)的單詞袋(CBOW)

嵌入:

  • “我”:[0.1,0.2,0.3]
  • “愛”:[0.4,0.5,0.6]
  • “學(xué)習(xí)”:[0.2,0.3,0.4]

聚合

  • 平均嵌入:

了解連續(xù)的單詞袋(CBOW)

輸出層

  • 計(jì)算logits,應(yīng)用SoftMax並預(yù)測目標(biāo)詞。

CBOW建築圖

輸入層:[“ i”,“ love”,“學(xué)習(xí)”]
     - >一式編碼
     - >嵌入層
         - >密集的嵌入
         - >匯總上下文向量
         - >完全連接的層Softmax
輸出:預(yù)測單詞“機(jī)器”

從頭開始編碼CBOW(帶有Python的示例)

現(xiàn)在,我們將瀏覽Python中從頭開始實(shí)施CBOW模型。

準(zhǔn)備CBOW數(shù)據(jù)

第一個(gè)尖峰是將文本轉(zhuǎn)換為代幣,將文字與上下文對鍵對面生成的單詞與上下文作為包含目標(biāo)單詞的單詞。

 copus =“快速棕狐跳過懶狗”
colpus = colpus.lower()。split()#tokenization和lowercase轉(zhuǎn)換

#定義上下文窗口大小
C = 2
context_target_pairs = []

#生成上下文目標(biāo)對
對於我的範(fàn)圍(c,len(corpus) -  c):
    context = copus [i -c:i] copus [i 1:i c 1]
    target = copus [i]
    context_target_pairs.append(((上下文,目標(biāo))))

print(“上下文 - 目標(biāo)對:”,context_target_pairs)

輸出:

上下文目標(biāo)對:[([['the','quick','fox',跳躍'],'brown'),(['quick'','','brown','''','off''],'fox'),(['brown'','fox'over'over'over'off'' “超過”,“懶惰”,“狗”],“'')]]

創(chuàng)建字典一詞

我們構(gòu)建了一個(gè)詞?。í?dú)特的單詞集),然後將每個(gè)單詞映射到唯一的索引,反之亦然,以期在訓(xùn)練過程中進(jìn)行有效的查找。

 #創(chuàng)建詞彙並將每個(gè)單詞映射到索引
vocab = set(語料庫)
word_to_index = {word:idx for IDX,枚舉(vocab)中的字}}
index_to_word = {idx:Word Word,word_to_index.items()}中的idx

打印(“ word to Index字典:”,Word_to_index)

輸出:

單詞到索引字典:{'brown':0,'dog':1,'quick':2,'跳躍':3,'fox':4,'over':5,'the':6,'lazy':7}

一式編碼示例

單速編碼作品是通過將單詞形成系統(tǒng)中的每個(gè)單詞轉(zhuǎn)換為向量的,其中該單詞的指標(biāo)為“ 1”,而其餘的地方則為“ 0”,出於很快的原因。

 def One_hot_encode(word,word_to_index):
    ONE_HOT = NP.Zeros(len(word_to_index))
    ONE_HOT [word_to_index [word]] = 1
    返回One_hot

#一個(gè)單詞“快速”的示例用法
context_one_hot = [one_hot_encode(word,word_to_index)for ['the'the','quick']]中的字
print(“'quick''的單速編碼:”,context_one_hot [1])

輸出:

單速編碼為“快速”:[0。 0。1。0。0。0。0。0。0。]

從頭開始構(gòu)建CBOW模型

在此步驟中,我們創(chuàng)建了一個(gè)具有兩個(gè)層的基本神經(jīng)網(wǎng)絡(luò):一個(gè)用於單詞嵌入,另一個(gè)用於基於上下文單詞計(jì)算輸出,平均上下文並將其傳遞到網(wǎng)絡(luò)中。

 cbow級:
    def __init __(self,vocab_size,embedding_dim):
        #隨機(jī)初始化嵌入和輸出層的權(quán)重
        self.w1 = np.random.randn(vocab_size,embedding_dim)
        self.w2 = np.random.randn(embedding_dim,vocab_size)
        
    def向前(self,context_words):
        #計(jì)算隱藏層(上下文單詞的平均值)
        h = np.mean(context_words,axis = 0)
        #計(jì)算輸出層(SoftMax概率)
        輸出= np.dot(h,self.w2)
        返回輸出
    
    向後def(self,context_words,target_word,Learning_rate = 0.01):
        #正向通行證
        h = np.mean(context_words,axis = 0)
        輸出= np.dot(h,self.w2)
        
        #計(jì)算錯(cuò)誤和梯度
        錯(cuò)誤= target_word-輸出
        self.w2 = Learning_rate * np.outer(h,錯(cuò)誤)
        self.w1 = Learning_rate * np.outer(context_words,錯(cuò)誤)

#創(chuàng)建CBOW對象的示例
vocab_size = len(word_to_index)
embedding_dim = 5#讓我們假設(shè)5維嵌入

cbow_model = cbow(vocab_size,embedding_dim)

#使用隨機(jī)上下文單詞和目標(biāo)(例如)
context_words = [one_hot_encode(word,word_to_index)for ['the'the','quick','fox','躍跳']中的字
context_words = np.array(context_words)
context_words = np.mean(context_words,axis = 0)#普通上下文單詞
target_word = one_hot_encode('brown',word_to_index)

#向前通過CBOW模型
輸出= cbow_model.forward(context_words)
打?。ā?CBOW向前通行證的輸出:”,輸出)

輸出:

 CBOW向前通行證的輸出:[[-0.20435729 -0.23851241 -0.08105261 -0.14251447 0.20442154 0.14336586
  -0.06523201 0.0255063]
 [-0.0192184 -0.12958821 0.1019369 0.11101922 -0.177773069 -0.02340574
  -0.22222151 -0.23863179]
 [0.21221977 -0.15263454 -0.015248 0.27618767 0.02959409 0.21777961
   0.16619577 -0.20560026]
 [0.05354038 0.06903295 0.0592706 -0.13509918 -0.00439649 0.18007843
   0.1611929 0.2449023]
 [0.01092826 0.19643582 -0.07430934 -0.16443165 -0.01094085 -0.27452367
  -0.13747784 0.31185284]]]

使用TensorFlow實(shí)現(xiàn)CBOW

TensorFlow通過定義使用嵌入層來學(xué)習(xí)單詞表示和輸出密集層的神經(jīng)網(wǎng)絡(luò)來簡化過程,並使用上下文單詞預(yù)測目標(biāo)單詞。

導(dǎo)入TensorFlow作為TF

#使用TensorFlow定義簡單的CBOW模型
cbowmodel類(tf.keras.model):
    def __init __(self,vocab_size,embedding_dim):
        super(cbowmodel,self).__ init __()
        self.embeddings = tf.keras.layers.embedding(input_dim = vocab_size,output_dim = embedding_dim)
        self.output_layer = tf.keras.layers.dense(vocab_size,activation ='softmax')
    
    def呼叫(self,context_words):
        embedded_context = self.embeddings(context_words)
        context_avg = tf.reduce_mean(embedded_context,axis = 1)
        輸出= self.output_layer(context_avg)
        返回輸出

#示例用法
model = cbowmodel(vocab_size = 8,embedding_dim = 5)
context_input = np.random.randint(0,8,size =(1,4))#隨機(jī)上下文輸入
context_input = tf.convert_to_tensor(context_input,dtype = tf.int32)

#正向通行證
輸出=模型(context_input)
打印(“ Tensorflow Cbow型號的輸出:”,output.numpy())

輸出:

 TensorFlow CBOW模型的輸出:[[0.12362909 0.12616573 0.12758036 0.12601459 0.12477358 0.1237749
  0.1231998 0.12486169]]]

使用Gensim進(jìn)行CBOW

Gensim在Word2Vec()函數(shù)中提供了現(xiàn)成的CBOW實(shí)現(xiàn),其中無需在培訓(xùn)上勞動,因?yàn)镚ensim訓(xùn)練文本語料庫的單詞嵌入。

導(dǎo)入Gensim
來自Gensim.models導(dǎo)入Word2vec

#準(zhǔn)備數(shù)據(jù)(單詞列表列表)
copus = [[“”,“ Quick”,“ Brown”,“ Fox”],[“跳”,“ Over”,“ The”,“ lazy”,“ dog”]]

#使用CBOW訓(xùn)練Word2Vec型號
model = word2vec(colpus,vector_size = 5,window = 2,min_count = 1,sg = 0)

#獲取單詞的向量表示
vector = model.wv ['fox']
打印(“'fox'的向量表示:”,向量)

輸出:

 “??怂埂钡氖噶勘硎荆篬-0.06810732 -0.01892803 0.11537147 -0.15043275 -0.07872207]

連續(xù)袋的優(yōu)點(diǎn)

現(xiàn)在,我們將探索連續(xù)袋的優(yōu)勢:

  • 有效學(xué)習(xí)單詞表示:CBOW通過使用上下文單詞有效地學(xué)習(xí)單詞的密集矢量表示。與傳統(tǒng)的單熱編碼相比,這會導(dǎo)致較低的矢量,這在計(jì)算上可能很昂貴。
  • 捕獲語義關(guān)係:CBOW基於單詞在大型語料庫中的上下文中捕獲語義關(guān)係。這使模型可以學(xué)習(xí)單詞相似性,同義詞和其他上下文細(xì)微差別,這些差異在信息檢索和情感分析之類的任務(wù)中很有用。
  • 可伸縮性:CBOW模型可擴(kuò)展,並且可以有效地處理大型數(shù)據(jù)集,從而非常適合具有大量文本數(shù)據(jù)的應(yīng)用程序,例如搜索引擎和社交媒體平臺。
  • 上下文靈活性:CBOW可以處理不同數(shù)量的上下文(即所考慮的周圍單詞的數(shù)量),在學(xué)習(xí)單詞表示單詞所需的上下文中提供靈活性。
  • NLP任務(wù)中的性能提高了:CBOW的單詞嵌入式通過提供高質(zhì)量的功能表示,增強(qiáng)了下游NLP任務(wù)的性能,例如文本分類,命名實(shí)體識別和機(jī)器翻譯。

連續(xù)的單詞袋的局限

現(xiàn)在讓我們討論CBOW的局限性:

  • 對上下文窗口大小的敏感性:CBOW的性能高度取決於上下文窗口大小。一個(gè)小窗口可能只會捕獲本地關(guān)係,而大窗口可能會模糊單詞的獨(dú)特性。找到最佳上下文大小可能具有挑戰(zhàn)性且依賴於任務(wù)。
  • 缺乏單詞順序敏感性:CBOW無視上下文中單詞的順序,這意味著它不會捕獲語言的順序性質(zhì)。對於需要對單詞順序深入了解的任務(wù),例如句法解析語言建模,此限制可能是有問題的。
  • 稀有詞的困難:CBOW難以生成有意義的嵌入,以實(shí)現(xiàn)稀有或訪問量的單詞(OOV)。該模型依賴於上下文,但是單詞不經(jīng)常的數(shù)據(jù)稀疏會導(dǎo)致矢量表示不良。
  • 僅限於淺色上下文理解:儘管CBOW捕獲基於周圍單詞的單詞含義,但它在理解更複雜的語言現(xiàn)象(例如長期依賴性,諷刺或諷刺)方面具有有限的功能,這可能需要更複雜的模型(例如變形金剛)。
  • 無法很好地處理多義:具有多種含義的單詞(polysemy)對於CBOW可能是有問題的。由於該模型會為每個(gè)單詞生成一個(gè)嵌入,因此與Bert或Elmo(例如BertElmo )不同,它可能無法捕獲單詞在不同上下文中所具有的不同含義。

結(jié)論

事實(shí)證明,連續(xù)的單詞(CBOW)模型是通過利用周圍環(huán)境來生成單詞嵌入的一種有效而直觀的方法。通過其簡單而有效的架構(gòu),Cbow彌合了原始文本和有意義的向量表示之間的差距,從而實(shí)現(xiàn)了廣泛的NLP應(yīng)用程序。通過了解CBOW的工作機(jī)制,其優(yōu)勢和局限性,我們可以更深入地了解NLP技術(shù)的發(fā)展。 Cbow憑藉其在嵌入生成中的基本作用,繼續(xù)成為探索先進(jìn)語言模型的墊腳石。

關(guān)鍵要點(diǎn)

  • CBow使用其周圍環(huán)境預(yù)測目標(biāo)詞,從而使其有效而簡單。
  • 它可以很好地提供頻繁的單詞,並提供計(jì)算效率。
  • CBOW學(xué)到的嵌入既捕獲語義和句法關(guān)係。
  • CBOW是理解現(xiàn)代單詞嵌入技術(shù)的基礎(chǔ)。
  • 實(shí)際應(yīng)用包括情感分析,語義搜索和文本建議。

常見問題

Q1:CBOW和SKIP-GRAM有什麼區(qū)別?

答:CBOW使用上下文單詞預(yù)測目標(biāo)單詞,而Skip-gram則使用目標(biāo)單詞預(yù)測上下文單詞。

Q2:為什麼CBOW計(jì)算速度比Skip-gram快?

答:CBOW同時(shí)處理多個(gè)上下文單詞,而跳過gram獨(dú)立評估每個(gè)上下文單詞。

Q3:CBOW可以有效處理稀有單詞嗎?

答:不,Skip-gram通常更好地傾向於學(xué)習(xí)稀有詞的學(xué)習(xí)表示。

Q4:CBOW中嵌入層的作用是什麼?

答:嵌入層將稀疏的單熱矢量轉(zhuǎn)化為密集的表示形式,從而捕獲單詞語義。

Q5:CBOW今天仍然有意義嗎?

答:是的,儘管存在像伯特這樣的新模型,但CBOW仍然是單詞嵌入中的基礎(chǔ)概念。

以上是了解連續(xù)的單詞袋(CBOW)的詳細(xì)內(nèi)容。更多資訊請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願(yuàn)投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Laravel 教程
1597
29
PHP教程
1488
72
Kimi K2:最強(qiáng)大的開源代理模型 Kimi K2:最強(qiáng)大的開源代理模型 Jul 12, 2025 am 09:16 AM

還記得今年早些時(shí)候破壞了Genai行業(yè)的大量開源中國模型嗎?儘管DeepSeek佔(zhàn)據(jù)了大多數(shù)頭條新聞,但Kimi K1.5是列表中的重要名字之一。模型很酷。

AGI和AI超級智能將嚴(yán)重?fù)糁腥祟愄旎ò宓募僭O(shè)障礙 AGI和AI超級智能將嚴(yán)重?fù)糁腥祟愄旎ò宓募僭O(shè)障礙 Jul 04, 2025 am 11:10 AM

讓我們來談?wù)劇? 對創(chuàng)新AI突破的分析是我正在進(jìn)行的AI中正在進(jìn)行的福布斯列覆蓋的一部分,包括識別和解釋各種有影響力的AI複雜性(請參閱此處的鏈接)。 前往Agi和

Grok 4 vs Claude 4:哪個(gè)更好? Grok 4 vs Claude 4:哪個(gè)更好? Jul 12, 2025 am 09:37 AM

到2025年中期,AI“軍備競賽”正在加熱,XAI和Anthropic都發(fā)布了他們的旗艦車型Grok 4和Claude 4。這兩種模型處於設(shè)計(jì)理念和部署平臺的相反端,但他們卻在

深入探討人工智能如何幫助和危害各行各業(yè) 深入探討人工智能如何幫助和危害各行各業(yè) Jul 04, 2025 am 11:11 AM

我們將討論:公司開始委派AI的工作職能,以及那些最不可能用人工智能替代的角色AI如何重塑行業(yè)和就業(yè),以及企業(yè)和工人的工作方式。

今天已經(jīng)在我們中間走了10個(gè)驚人的人形機(jī)器人 今天已經(jīng)在我們中間走了10個(gè)驚人的人形機(jī)器人 Jul 16, 2025 am 11:12 AM

但是我們可能甚至不必等10年就可以看到一個(gè)。實(shí)際上,可以被認(rèn)為是真正有用的,類人類機(jī)器的第一波。 近年來,有許多原型和生產(chǎn)模型從T中走出來

上下文工程是' new'及時(shí)的工程 上下文工程是' new'及時(shí)的工程 Jul 12, 2025 am 09:33 AM

直到上一年,迅速的工程被認(rèn)為是與大語言模型(LLM)互動的關(guān)鍵技能。然而,最近,LLM在推理和理解能力方面已經(jīng)顯著提高。自然,我們的期望

建立Langchain健身教練:您的AI私人教練 建立Langchain健身教練:您的AI私人教練 Jul 05, 2025 am 09:06 AM

許多人充滿熱情地打入健身房,並相信自己正在正確實(shí)現(xiàn)自己的健身目標(biāo)。但是由於飲食計(jì)劃差和缺乏方向,結(jié)果不存在。僱用私人教練AL

6個(gè)任務(wù)Manus AI可以在幾分鐘內(nèi)完成 6個(gè)任務(wù)Manus AI可以在幾分鐘內(nèi)完成 Jul 06, 2025 am 09:29 AM

我相信您必須了解通用的AI代理Manus。它是幾個(gè)月前推出的,在過去的幾個(gè)月中,他們?yōu)橄到y(tǒng)添加了幾個(gè)新功能?,F(xiàn)在,您可以生成視頻,創(chuàng)建網(wǎng)站並做很多MO

See all articles