亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

目錄
學(xué)習(xí)目標(biāo)
目錄
什么是連續(xù)的單詞模型?
連續(xù)的單詞如何工作
了解上下文和目標(biāo)詞
CBOW的逐步過程
步驟1:數(shù)據(jù)準(zhǔn)備
步驟2:生成上下文目標(biāo)對
步驟3:單速編碼
步驟4:嵌入層
步驟5:上下文聚合
步驟6:預(yù)測
步驟7:損失計算和優(yōu)化
步驟8:對所有對重復(fù)
CBow架構(gòu)詳細(xì)解釋
輸入層
嵌入層
隱藏層:上下文聚合
輸出層
損失功能
CBOW的示例
CBOW建筑圖
從頭開始編碼CBOW(帶有Python的示例)
準(zhǔn)備CBOW數(shù)據(jù)
創(chuàng)建字典一詞
一式編碼示例
從頭開始構(gòu)建CBOW模型
使用TensorFlow實現(xiàn)CBOW
使用Gensim進行CBOW
連續(xù)袋的優(yōu)點
連續(xù)的單詞袋的局限
結(jié)論
關(guān)鍵要點
常見問題
首頁 科技周邊 人工智能 了解連續(xù)的單詞袋(CBOW)

了解連續(xù)的單詞袋(CBOW)

Mar 17, 2025 am 09:46 AM

語義很重要,因為在NLP中,這是正在研究的單詞之間的關(guān)系。最簡單但最有效的過程之一是連續(xù)的單詞袋(CBOW),將單詞映射到稱為單詞向量的高度有意義的向量。 CBow在Word2Vec框架中使用,并根據(jù)與之相鄰的單詞預(yù)測一個單詞,該單詞捕獲了語言的語義和語法含義。在本文中,讀者將了解CBOW模型的操作以及其使用方法。

學(xué)習(xí)目標(biāo)

  • 了解CBOW模型背后的理論。
  • 了解CBow和Skip-gram之間的差異。
  • 使用示例數(shù)據(jù)集實現(xiàn)Python中的CBOW模型。
  • 分析CBOW的優(yōu)勢和局限性。
  • 探索CBOW生成的單詞嵌入的用例。

目錄

  • 什么是連續(xù)的單詞模型?
  • 連續(xù)的單詞如何工作
  • CBow架構(gòu)詳細(xì)解釋
  • 從頭開始編碼CBOW(帶有Python的示例)
  • 連續(xù)袋的優(yōu)點
  • 連續(xù)的單詞袋的局限
  • 常見問題

什么是連續(xù)的單詞模型?

連續(xù)的單詞袋(CBOW)也是一種模型,它在使用神經(jīng)網(wǎng)絡(luò)確定嵌入單詞時使用,并且是Tomas Mikolov的Word2Vec模型的一部分。 CBow試圖根據(jù)給定句子觀察的上下文單詞預(yù)測目標(biāo)詞。這樣,它就能捕獲語義關(guān)系,因此在高維空間中密切表示近距離表示。

例如,在“貓坐在墊子上”的句子中,如果上下文窗口大小為2,則“ sat”的上下文單詞是[“”,“”,“ cat”,“ on”,“ the”] ,并且該模型的任務(wù)是預(yù)測“ sat”一詞。

CBOW通過匯總上下文單詞(例如,平均嵌入)并使用此匯總表示來預(yù)測目標(biāo)單詞來運行。該模型的體系結(jié)構(gòu)涉及上下文單詞的輸入層,用于嵌入生成的隱藏層以及使用概率分布預(yù)測目標(biāo)單詞的輸出層。

這是一個適合處理頻繁單詞的快速高效模型,非常適合需要語義理解的任務(wù),例如文本分類,推薦系統(tǒng)和情感分析。

連續(xù)的單詞如何工作

CBow是根據(jù)上下文的最簡單,有效的技術(shù)之一,用于單詞嵌入,其中整個單詞的詞匯映射到向量。本節(jié)還將CBOW系統(tǒng)的操作描述為在其最基本的層面上理解該方法的一種手段,討論了基于CBOW方法的主要思想,并為CBOW命中計算系統(tǒng)的架構(gòu)布局提供了綜合指南。

了解上下文和目標(biāo)詞

CBow依靠兩個關(guān)鍵概念:上下文單詞和目標(biāo)詞。

  • 上下文詞:這些是定義的窗口大小中的目標(biāo)詞圍繞目標(biāo)單詞的單詞。例如,在句子中:
    “快速的棕色狐貍跳過懶狗” ,
    如果目標(biāo)詞是“ fox” ,而上下文窗口大小為2,則上下文單詞為[“快速”,“棕色”,“跳”,“ Over”] 。
  • 目標(biāo)詞:這是CBOW旨在預(yù)測上下文單詞的單詞。在上面的示例中,目標(biāo)詞是“狐貍” 。

通過分析上下文與大型語料庫中的目標(biāo)單詞之間的關(guān)系,CBOW生成嵌入,以捕獲單詞之間的語義關(guān)系。

CBOW的逐步過程

這是CBOW工作原理的細(xì)分,分步:

步驟1:數(shù)據(jù)準(zhǔn)備

  • 選擇文本語料庫(例如,句子或段落)。
  • 將文本歸為單詞并構(gòu)建詞匯。
  • 定義上下文窗口大小nnn(例如,每側(cè)2個單詞)。

步驟2:生成上下文目標(biāo)對

  • 對于語料庫中的每個單詞,請根據(jù)窗口大小提取其周圍的上下文單詞。
  • 示例:對于“我愛機器學(xué)習(xí)”和n = 2n = 2n = 2的句子,對是:目標(biāo)詞上下文單詞愛[i”,“ machine”]機器[“愛”,“學(xué)習(xí)”]

步驟3:單速編碼

基于詞匯大小,將上下文單詞和目標(biāo)單詞轉(zhuǎn)換為單熱矢量。對于大小5的詞匯,“愛”一詞的單次表示可能看起來像[0、1、0、0、0、0]

步驟4:嵌入層

通過嵌入層傳遞單熱編碼的上下文單詞。該層將每個單詞映射到密集的向量表示,通常比詞匯大小較低。

步驟5:上下文聚合

匯總所有上下文單詞的嵌入(例如,平均或求和它們)形成單個上下文向量。

步驟6:預(yù)測

  • 將聚合的上下文向量饋入具有軟磁輸出層的完全連接的神經(jīng)網(wǎng)絡(luò)。
  • 該模型根據(jù)詞匯上的概率分布預(yù)測最可能的單詞作為目標(biāo)。

步驟7:損失計算和優(yōu)化

  • 使用跨透鏡損失函數(shù)計算預(yù)測和實際目標(biāo)詞之間的誤差。
  • 反向傳播誤差以調(diào)整嵌入和預(yù)測層中的權(quán)重。

步驟8:對所有對重復(fù)

重復(fù)語料庫中所有上下文目標(biāo)對的過程,直到模型收斂為止。

CBow架構(gòu)詳細(xì)解釋

連續(xù)的單詞(CBOW)模型架構(gòu)旨在根據(jù)其周圍上下文單詞進行預(yù)測目標(biāo)單詞。它是一個具有直接但有效結(jié)構(gòu)的淺神經(jīng)網(wǎng)絡(luò)。 CBOW架構(gòu)由以下組件組成:

輸入層

  • 輸入表示
    該模型的輸入是上下文單詞表示為單熱編碼向量。
    • 如果詞匯大小為v,則每個單詞表示為大小為V的單式向量,在索引處單個1表示與單詞相對應(yīng)的索引,而在其他地方為0。
    • 例如,如果詞匯為[“貓”,“狗”,“狐貍”,“樹”,“鳥”]和“狐貍”一詞是第三個單詞,則其一hot矢量為[0,0,1,0,0] [0,0,0,0,1,1,0,0,0] [0,0,1,1,0,0]。
  • 上下文窗口
    上下文窗口大小n確定了使用的上下文單詞的數(shù)量。如果n = 2,則使用目標(biāo)單詞的每一側(cè)兩個單詞。
    • 對于句子: “快速的棕色狐貍跳過懶狗”和目標(biāo)單詞“狐貍” ,n = 2的上下文單詞是[“快速”,“棕色”,“跳躍”,“ Over”] 。

嵌入層

  • 目的
    該層將在高尺寸中存在的單熱量向量轉(zhuǎn)換為最大密度和低尺寸向量。與以下事實相反:在單詞嵌入單詞中被表示為具有零值的向量,在嵌入式層中,每個單詞都由所需維度的連續(xù)向量編碼,這些維度反映了單詞含義的特定特征。
  • 單詞嵌入矩陣
    嵌入層保持一個單詞嵌入尺寸v×d的矩陣W,其中v是詞匯大小,d是嵌入尺寸。
    • W的每一行代表單詞的嵌入。
    • 對于單熱向量XXX,將嵌入計算為W^TX X。
  • 上下文詞嵌入
    使用嵌入矩陣將每個上下文單詞轉(zhuǎn)換為相應(yīng)的致密矢量。如果窗口大小n = 2,并且我們有4個上下文單詞,則提取了這些單詞的嵌入。

隱藏層:上下文聚合

  • 目的
    將上下文單詞的嵌入組合在一起以形成單個上下文向量。
  • 聚合方法
    • 平均值:所有上下文單詞的嵌入平均以計算上下文向量。

了解連續(xù)的單詞袋(CBOW)

  • 求和:嵌入而不是平均,而是求和。

了解連續(xù)的單詞袋(CBOW)

  • 結(jié)果上下文向量:結(jié)果是單個密集的向量HHH,代表周圍單詞的匯總上下文。

輸出層

  • 目的:輸出層使用上下文向量HHH預(yù)測目標(biāo)單詞。
  • 完全連接的層:上下文向量HHH通過一個完全連接的層,該層輸出了詞匯中每個單詞的原始分?jǐn)?shù)。這些分?jǐn)?shù)稱為邏輯。
  • SoftMax函數(shù):邏輯通過SoftMax函數(shù)傳遞,以計算詞匯上的概率分布:

了解連續(xù)的單詞袋(CBOW)

  • 預(yù)測的目標(biāo)詞:第一個原因是,在SoftMax輸出時,該算法將目標(biāo)詞定義為具有最高概率的單詞。

損失功能

  • 跨透鏡損失用于將預(yù)測的概率分布與實際目標(biāo)詞(地面真相)進行比較。
  • 使用隨機梯度下降(SGD)或其變體等優(yōu)化技術(shù)將損失最小化。

CBOW的示例

輸入
句子: “我愛機器學(xué)習(xí)” ,目標(biāo)詞: “機器” ,上下文詞: [“我”,“愛”,“學(xué)習(xí)”]

單速編碼
詞匯: [“我”,“愛”,“機器”,“學(xué)習(xí)”,“ AI”]

  • 一旋向量:
    • “ i”:[1,0,0,0,0] [1,0,0,0,0] [1,0,0,0,0]
    • “愛”:[0,1,0,0,0] [0、1、0、0、0] [0,1,0,0,0]
    • “學(xué)習(xí)”:[0,0,0,1,0] [0,0,0,1,0] [0,0,0,1,0]

嵌入層

  • 嵌入尺寸:d = 3。
  • 嵌入矩陣W:

了解連續(xù)的單詞袋(CBOW)

嵌入:

  • “我”:[0.1,0.2,0.3]
  • “愛”:[0.4,0.5,0.6]
  • “學(xué)習(xí)”:[0.2,0.3,0.4]

聚合

  • 平均嵌入:

了解連續(xù)的單詞袋(CBOW)

輸出層

  • 計算logits,應(yīng)用SoftMax并預(yù)測目標(biāo)詞。

CBOW建筑圖

輸入層:[“ i”,“ love”,“學(xué)習(xí)”]
     - >一式編碼
     - >嵌入層
         - >密集的嵌入
         - >匯總上下文向量
         - >完全連接的層Softmax
輸出:預(yù)測單詞“機器”

從頭開始編碼CBOW(帶有Python的示例)

現(xiàn)在,我們將瀏覽Python中從頭開始實施CBOW模型。

準(zhǔn)備CBOW數(shù)據(jù)

第一個尖峰是將文本轉(zhuǎn)換為代幣,將文字與上下文對鍵對面生成的單詞與上下文作為包含目標(biāo)單詞的單詞。

 copus =“快速棕狐跳過懶狗”
colpus = colpus.lower()。split()#tokenization和lowercase轉(zhuǎn)換

#定義上下文窗口大小
C = 2
context_target_pairs = []

#生成上下文目標(biāo)對
對于我的范圍(c,len(corpus) -  c):
    context = copus [i -c:i] copus [i 1:i c 1]
    target = copus [i]
    context_target_pairs.append(((上下文,目標(biāo))))

print(“上下文 - 目標(biāo)對:”,context_target_pairs)

輸出:

上下文目標(biāo)對:[([['the','quick','fox',跳躍'],'brown'),(['quick'','','brown','''','off''],'fox'),(['brown'','fox'over'over'over'off'' “超過”,“懶惰”,“狗”],“'')]]

創(chuàng)建字典一詞

我們構(gòu)建了一個詞匯(獨特的單詞集),然后將每個單詞映射到唯一的索引,反之亦然,以期在訓(xùn)練過程中進行有效的查找。

 #創(chuàng)建詞匯并將每個單詞映射到索引
vocab = set(語料庫)
word_to_index = {word:idx for IDX,枚舉(vocab)中的字}}
index_to_word = {idx:Word Word,word_to_index.items()}中的idx

打?。ā?word to Index字典:”,Word_to_index)

輸出:

單詞到索引字典:{'brown':0,'dog':1,'quick':2,'跳躍':3,'fox':4,'over':5,'the':6,'lazy':7}

一式編碼示例

單速編碼作品是通過將單詞形成系統(tǒng)中的每個單詞轉(zhuǎn)換為向量的,其中該單詞的指標(biāo)為“ 1”,而其余的地方則為“ 0”,出于很快的原因。

 def One_hot_encode(word,word_to_index):
    ONE_HOT = NP.Zeros(len(word_to_index))
    ONE_HOT [word_to_index [word]] = 1
    返回One_hot

#一個單詞“快速”的示例用法
context_one_hot = [one_hot_encode(word,word_to_index)for ['the'the','quick']]中的字
print(“'quick''的單速編碼:”,context_one_hot [1])

輸出:

單速編碼為“快速”:[0。 0。1。0。0。0。0。0。0。]

從頭開始構(gòu)建CBOW模型

在此步驟中,我們創(chuàng)建了一個具有兩個層的基本神經(jīng)網(wǎng)絡(luò):一個用于單詞嵌入,另一個用于基于上下文單詞計算輸出,平均上下文并將其傳遞到網(wǎng)絡(luò)中。

 cbow級:
    def __init __(self,vocab_size,embedding_dim):
        #隨機初始化嵌入和輸出層的權(quán)重
        self.w1 = np.random.randn(vocab_size,embedding_dim)
        self.w2 = np.random.randn(embedding_dim,vocab_size)
        
    def向前(self,context_words):
        #計算隱藏層(上下文單詞的平均值)
        h = np.mean(context_words,axis = 0)
        #計算輸出層(SoftMax概率)
        輸出= np.dot(h,self.w2)
        返回輸出
    
    向后def(self,context_words,target_word,Learning_rate = 0.01):
        #正向通行證
        h = np.mean(context_words,axis = 0)
        輸出= np.dot(h,self.w2)
        
        #計算錯誤和梯度
        錯誤= target_word-輸出
        self.w2 = Learning_rate * np.outer(h,錯誤)
        self.w1 = Learning_rate * np.outer(context_words,錯誤)

#創(chuàng)建CBOW對象的示例
vocab_size = len(word_to_index)
embedding_dim = 5#讓我們假設(shè)5維嵌入

cbow_model = cbow(vocab_size,embedding_dim)

#使用隨機上下文單詞和目標(biāo)(例如)
context_words = [one_hot_encode(word,word_to_index)for ['the'the','quick','fox','躍跳']中的字
context_words = np.array(context_words)
context_words = np.mean(context_words,axis = 0)#普通上下文單詞
target_word = one_hot_encode('brown',word_to_index)

#向前通過CBOW模型
輸出= cbow_model.forward(context_words)
打印(“ CBOW向前通行證的輸出:”,輸出)

輸出:

 CBOW向前通行證的輸出:[[-0.20435729 -0.23851241 -0.08105261 -0.14251447 0.20442154 0.14336586
  -0.06523201 0.0255063]
 [-0.0192184 -0.12958821 0.1019369 0.11101922 -0.177773069 -0.02340574
  -0.22222151 -0.23863179]
 [0.21221977 -0.15263454 -0.015248 0.27618767 0.02959409 0.21777961
   0.16619577 -0.20560026]
 [0.05354038 0.06903295 0.0592706 -0.13509918 -0.00439649 0.18007843
   0.1611929 0.2449023]
 [0.01092826 0.19643582 -0.07430934 -0.16443165 -0.01094085 -0.27452367
  -0.13747784 0.31185284]]]

使用TensorFlow實現(xiàn)CBOW

TensorFlow通過定義使用嵌入層來學(xué)習(xí)單詞表示和輸出密集層的神經(jīng)網(wǎng)絡(luò)來簡化過程,并使用上下文單詞預(yù)測目標(biāo)單詞。

導(dǎo)入TensorFlow作為TF

#使用TensorFlow定義簡單的CBOW模型
cbowmodel類(tf.keras.model):
    def __init __(self,vocab_size,embedding_dim):
        super(cbowmodel,self).__ init __()
        self.embeddings = tf.keras.layers.embedding(input_dim = vocab_size,output_dim = embedding_dim)
        self.output_layer = tf.keras.layers.dense(vocab_size,activation ='softmax')
    
    def呼叫(self,context_words):
        embedded_context = self.embeddings(context_words)
        context_avg = tf.reduce_mean(embedded_context,axis = 1)
        輸出= self.output_layer(context_avg)
        返回輸出

#示例用法
model = cbowmodel(vocab_size = 8,embedding_dim = 5)
context_input = np.random.randint(0,8,size =(1,4))#隨機上下文輸入
context_input = tf.convert_to_tensor(context_input,dtype = tf.int32)

#正向通行證
輸出=模型(context_input)
打?。ā?Tensorflow Cbow型號的輸出:”,output.numpy())

輸出:

 TensorFlow CBOW模型的輸出:[[0.12362909 0.12616573 0.12758036 0.12601459 0.12477358 0.1237749
  0.1231998 0.12486169]]]

使用Gensim進行CBOW

Gensim在Word2Vec()函數(shù)中提供了現(xiàn)成的CBOW實現(xiàn),其中無需在培訓(xùn)上勞動,因為Gensim訓(xùn)練文本語料庫的單詞嵌入。

導(dǎo)入Gensim
來自Gensim.models導(dǎo)入Word2vec

#準(zhǔn)備數(shù)據(jù)(單詞列表列表)
copus = [[“”,“ Quick”,“ Brown”,“ Fox”],[“跳”,“ Over”,“ The”,“ lazy”,“ dog”]]

#使用CBOW訓(xùn)練Word2Vec型號
model = word2vec(colpus,vector_size = 5,window = 2,min_count = 1,sg = 0)

#獲取單詞的向量表示
vector = model.wv ['fox']
打?。ā?fox'的向量表示:”,向量)

輸出:

 “??怂埂钡氖噶勘硎荆篬-0.06810732 -0.01892803 0.11537147 -0.15043275 -0.07872207]

連續(xù)袋的優(yōu)點

現(xiàn)在,我們將探索連續(xù)袋的優(yōu)勢:

  • 有效學(xué)習(xí)單詞表示:CBOW通過使用上下文單詞有效地學(xué)習(xí)單詞的密集矢量表示。與傳統(tǒng)的單熱編碼相比,這會導(dǎo)致較低的矢量,這在計算上可能很昂貴。
  • 捕獲語義關(guān)系:CBOW基于單詞在大型語料庫中的上下文中捕獲語義關(guān)系。這使模型可以學(xué)習(xí)單詞相似性,同義詞和其他上下文細(xì)微差別,這些差異在信息檢索和情感分析之類的任務(wù)中很有用。
  • 可伸縮性:CBOW模型可擴展,并且可以有效地處理大型數(shù)據(jù)集,從而非常適合具有大量文本數(shù)據(jù)的應(yīng)用程序,例如搜索引擎和社交媒體平臺。
  • 上下文靈活性:CBOW可以處理不同數(shù)量的上下文(即所考慮的周圍單詞的數(shù)量),在學(xué)習(xí)單詞表示單詞所需的上下文中提供靈活性。
  • NLP任務(wù)中的性能提高了:CBOW的單詞嵌入式通過提供高質(zhì)量的功能表示,增強了下游NLP任務(wù)的性能,例如文本分類,命名實體識別和機器翻譯。

連續(xù)的單詞袋的局限

現(xiàn)在讓我們討論CBOW的局限性:

  • 對上下文窗口大小的敏感性:CBOW的性能高度取決于上下文窗口大小。一個小窗口可能只會捕獲本地關(guān)系,而大窗口可能會模糊單詞的獨特性。找到最佳上下文大小可能具有挑戰(zhàn)性且依賴于任務(wù)。
  • 缺乏單詞順序敏感性:CBOW無視上下文中單詞的順序,這意味著它不會捕獲語言的順序性質(zhì)。對于需要對單詞順序深入了解的任務(wù),例如句法解析語言建模,此限制可能是有問題的。
  • 稀有詞的困難:CBOW難以生成有意義的嵌入,以實現(xiàn)稀有或訪問量的單詞(OOV)。該模型依賴于上下文,但是單詞不經(jīng)常的數(shù)據(jù)稀疏會導(dǎo)致矢量表示不良。
  • 僅限于淺色上下文理解:盡管CBOW捕獲基于周圍單詞的單詞含義,但它在理解更復(fù)雜的語言現(xiàn)象(例如長期依賴性,諷刺或諷刺)方面具有有限的功能,這可能需要更復(fù)雜的模型(例如變形金剛)。
  • 無法很好地處理多義:具有多種含義的單詞(polysemy)對于CBOW可能是有問題的。由于該模型會為每個單詞生成一個嵌入,因此與Bert或Elmo(例如BertElmo )不同,它可能無法捕獲單詞在不同上下文中所具有的不同含義。

結(jié)論

事實證明,連續(xù)的單詞(CBOW)模型是通過利用周圍環(huán)境來生成單詞嵌入的一種有效而直觀的方法。通過其簡單而有效的架構(gòu),Cbow彌合了原始文本和有意義的向量表示之間的差距,從而實現(xiàn)了廣泛的NLP應(yīng)用程序。通過了解CBOW的工作機制,其優(yōu)勢和局限性,我們可以更深入地了解NLP技術(shù)的發(fā)展。 Cbow憑借其在嵌入生成中的基本作用,繼續(xù)成為探索先進語言模型的墊腳石。

關(guān)鍵要點

  • CBow使用其周圍環(huán)境預(yù)測目標(biāo)詞,從而使其有效而簡單。
  • 它可以很好地提供頻繁的單詞,并提供計算效率。
  • CBOW學(xué)到的嵌入既捕獲語義和句法關(guān)系。
  • CBOW是理解現(xiàn)代單詞嵌入技術(shù)的基礎(chǔ)。
  • 實際應(yīng)用包括情感分析,語義搜索和文本建議。

常見問題

Q1:CBOW和SKIP-GRAM有什么區(qū)別?

答:CBOW使用上下文單詞預(yù)測目標(biāo)單詞,而Skip-gram則使用目標(biāo)單詞預(yù)測上下文單詞。

Q2:為什么CBOW計算速度比Skip-gram快?

答:CBOW同時處理多個上下文單詞,而跳過gram獨立評估每個上下文單詞。

Q3:CBOW可以有效處理稀有單詞嗎?

答:不,Skip-gram通常更好地傾向于學(xué)習(xí)稀有詞的學(xué)習(xí)表示。

Q4:CBOW中嵌入層的作用是什么?

答:嵌入層將稀疏的單熱矢量轉(zhuǎn)化為密集的表示形式,從而捕獲單詞語義。

Q5:CBOW今天仍然有意義嗎?

答:是的,盡管存在像伯特這樣的新模型,但CBOW仍然是單詞嵌入中的基礎(chǔ)概念。

以上是了解連續(xù)的單詞袋(CBOW)的詳細(xì)內(nèi)容。更多信息請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本站聲明
本文內(nèi)容由網(wǎng)友自發(fā)貢獻,版權(quán)歸原作者所有,本站不承擔(dān)相應(yīng)法律責(zé)任。如您發(fā)現(xiàn)有涉嫌抄襲侵權(quán)的內(nèi)容,請聯(lián)系admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費脫衣服圖片

Undresser.AI Undress

Undresser.AI Undress

人工智能驅(qū)動的應(yīng)用程序,用于創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用于從照片中去除衣服的在線人工智能工具。

Clothoff.io

Clothoff.io

AI脫衣機

Video Face Swap

Video Face Swap

使用我們完全免費的人工智能換臉工具輕松在任何視頻中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的代碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

功能強大的PHP集成開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級代碼編輯軟件(SublimeText3)

Kimi K2:最強大的開源代理模型 Kimi K2:最強大的開源代理模型 Jul 12, 2025 am 09:16 AM

還記得今年早些時候破壞了Genai行業(yè)的大量開源中國模型嗎?盡管DeepSeek占據(jù)了大多數(shù)頭條新聞,但Kimi K1.5是列表中的重要名字之一。模型很酷。

AGI和AI超級智能將嚴(yán)重?fù)糁腥祟愄旎ò宓募僭O(shè)障礙 AGI和AI超級智能將嚴(yán)重?fù)糁腥祟愄旎ò宓募僭O(shè)障礙 Jul 04, 2025 am 11:10 AM

讓我們來談?wù)劇? 對創(chuàng)新AI突破的分析是我正在進行的AI中正在進行的福布斯列覆蓋的一部分,包括識別和解釋各種有影響力的AI復(fù)雜性(請參閱此處的鏈接)。 前往Agi和

Grok 4 vs Claude 4:哪個更好? Grok 4 vs Claude 4:哪個更好? Jul 12, 2025 am 09:37 AM

到2025年中期,AI“軍備競賽”正在加熱,XAI和Anthropic都發(fā)布了他們的旗艦車型Grok 4和Claude 4。這兩種模型處于設(shè)計理念和部署平臺的相反端,但他們卻在

深入探討人工智能如何幫助和危害各行各業(yè) 深入探討人工智能如何幫助和危害各行各業(yè) Jul 04, 2025 am 11:11 AM

我們將討論:公司開始委派AI的工作職能,以及那些最不可能用人工智能替代的角色AI如何重塑行業(yè)和就業(yè),以及企業(yè)和工人的工作方式。

今天已經(jīng)在我們中間走了10個驚人的人形機器人 今天已經(jīng)在我們中間走了10個驚人的人形機器人 Jul 16, 2025 am 11:12 AM

但是我們可能甚至不必等10年就可以看到一個。實際上,可以被認(rèn)為是真正有用的,類人類機器的第一波。 近年來,有許多原型和生產(chǎn)模型從T中走出來

上下文工程是' new'及時的工程 上下文工程是' new'及時的工程 Jul 12, 2025 am 09:33 AM

直到上一年,迅速的工程被認(rèn)為是與大語言模型(LLM)互動的關(guān)鍵技能。然而,最近,LLM在推理和理解能力方面已經(jīng)顯著提高。自然,我們的期望

建立Langchain健身教練:您的AI私人教練 建立Langchain健身教練:您的AI私人教練 Jul 05, 2025 am 09:06 AM

許多人充滿熱情地打入健身房,并相信自己正在正確實現(xiàn)自己的健身目標(biāo)。但是由于飲食計劃差和缺乏方向,結(jié)果不存在。雇用私人教練AL

6個任務(wù)Manus AI可以在幾分鐘內(nèi)完成 6個任務(wù)Manus AI可以在幾分鐘內(nèi)完成 Jul 06, 2025 am 09:29 AM

我相信您必須了解通用的AI代理Manus。它是幾個月前推出的,在過去的幾個月中,他們?yōu)橄到y(tǒng)添加了幾個新功能?,F(xiàn)在,您可以生成視頻,創(chuàng)建網(wǎng)站并做很多MO

See all articles