亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

目錄
1、深度神經(jīng)網(wǎng)路(DNN)
2、卷積神經(jīng)網(wǎng)路(CNN)
3、殘差網(wǎng)絡(luò)(ResNet)
4、LSTM(長短時記憶網(wǎng)路)
5、Word2Vec
6、Transformer
7、生成對抗網(wǎng)路(GAN)
8、Diffusion擴散模型
9.圖神經(jīng)網(wǎng)路(GNN)
10、深度Q網(wǎng)路(DQN)
首頁 科技週邊 人工智慧 超強!深度學(xué)習(xí)Top10演算法!

超強!深度學(xué)習(xí)Top10演算法!

Mar 15, 2024 pm 03:46 PM
人工智慧 深度學(xué)習(xí) 社群網(wǎng)路

自2006年深度學(xué)習(xí)概念被提出以來,20年快過去了,深度學(xué)習(xí)作為人工智慧領(lǐng)域的一場革命,已經(jīng)催生了許多具有影響力的演算法。那麼,你所認為深度學(xué)習(xí)的top10演算法有哪些呢?

超強!深度學(xué)習(xí)Top10演算法!

以下是我心目中深度學(xué)習(xí)的頂尖演算法,它們在創(chuàng)新、應(yīng)用價值和影響力方面都佔據(jù)重要地位。

1、深度神經(jīng)網(wǎng)路(DNN)

#背景:深度神經(jīng)網(wǎng)路(DNN)也叫多層感知機,是最普遍的深度學(xué)習(xí)演算法,發(fā)明之初由於算力瓶頸而飽受質(zhì)疑,直到近些年算力、數(shù)據(jù)的爆發(fā)才迎來突破。

超強!深度學(xué)習(xí)Top10演算法!

DNN是一種神經(jīng)網(wǎng)路模型,它包含多個隱藏層。在這個模型中,每一層將輸入傳遞給下一層,並利用非線性活化函數(shù)引入學(xué)習(xí)的非線性特性。透過疊加這些非線性變換,DNN可以學(xué)習(xí)輸入資料的複雜特徵表示。

模型訓(xùn)練涉及使用反向傳播演算法和梯度下降最佳化演算法來不斷調(diào)整權(quán)重。在訓(xùn)練中,透過計算損失函數(shù)對權(quán)重的梯度,然後利用梯度下降或其他最佳化演算法來更新權(quán)重,以使損失函數(shù)最小化。

優(yōu)點:能夠?qū)W習(xí)輸入資料的複雜特徵,並捕捉非線性關(guān)係。具有強大的特徵學(xué)習(xí)和表示能力。

網(wǎng)路深度增加會導(dǎo)致梯度消失問題加劇,訓(xùn)練不穩(wěn)定。此外,模型容易陷入局部最小值,需要複雜的初始化策略和正規(guī)化技術(shù)。

使用場景:影像分類、語音辨識、自然語言處理、推薦系統(tǒng)等。

Python範例程式碼:

import numpy as npfrom keras.models import Sequentialfrom keras.layers import Dense# 假設(shè)有10個輸入特徵和3個輸出類別input_dim = 10num_classes = 3# 建立DNN模型model = Sequential()model.add(Dense(64, activatinotallow='relu', input_shape=(input_dim,)))model.add(Dense(32, activatinallow 'relu'))model.add(Dense(num_classes, activatinotallow='softmax'))# 編譯模型,選擇優(yōu)化器和損失函數(shù)model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=[' accuracy'])# 假設(shè)有100個樣本的訓(xùn)練資料和標籤X_train = np.random.rand(100, input_dim)y_train = np.random.randint(0, 2, size=(100, num_classes))# 訓(xùn)練模型model.fit(X_train, y_train, epochs=10)
#

2、卷積神經(jīng)網(wǎng)路(CNN)

模型原理:卷積神經(jīng)網(wǎng)路(CNN)是專門為處理影像資料而設(shè)計的神經(jīng)網(wǎng)絡(luò),由Lechun大佬設(shè)計的Lenet是CNN的開山之作。 CNN透過使用卷積層來捕捉局部特徵,並透過池化層來降低資料的維度。卷積層對輸入資料進行局部卷積操作,並使用參數(shù)共享機制來減少模型的參數(shù)數(shù)量。池化層則對卷積層的輸出進行下取樣,以降低資料的維度和計算複雜度。這種結(jié)構(gòu)特別適合處理影像資料。

超強!深度學(xué)習(xí)Top10演算法!

模型訓(xùn)練涉及使用反向傳播演算法和梯度下降最佳化演算法來不斷調(diào)整權(quán)重。在訓(xùn)練中,透過計算損失函數(shù)對權(quán)重的梯度,然後利用梯度下降或其他最佳化演算法來更新權(quán)重,以使損失函數(shù)最小化。

優(yōu)點:能夠有效地處理影像數(shù)據(jù),並捕捉局部特徵。具有較少的參數(shù)數(shù)量,降低了過度擬合的風(fēng)險。

缺點:對於序列資料或長距離依賴關(guān)係可能不太適用??赡苄枰獙斎胭Y料進行複雜的預(yù)處理。

使用場景:影像分類、目標偵測、語意分割等。

Python範例程式碼

from keras.models import Sequentialfrom keras.layers import Conv2D, MaxPooling2D, Flatten, Dense# 假設(shè)輸入映像的形狀是64x64像素,有3個顏色通道input_shape = (64, 64, 3)# 建立CNN模型model = Sequential()model.add(Conv2D(32, (3, 3), activatinotallow='relu', input_shape=input_shape ))model.add(MaxPooling2D((2, 2)))model.add(Conv2D(64, (3, 3), activatinotallow='relu'))model.add(Flatten())model.add(Dense( 128, activatinotallow='relu'))model.add(Dense(num_classes, activatinotallow='softmax'))# 編譯模型,選擇優(yōu)化器和損失函數(shù)model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])# 假設(shè)有100個樣本的訓(xùn)練資料和標籤X_train = np.random.rand(100, *input_shape)y_train = np.random.randint(0, 2, size=(100, num_classes ))# 訓(xùn)練模型model.fit(X_train, y_train, epochs=10)

3、殘差網(wǎng)絡(luò)(ResNet)

隨著深度學(xué)習(xí)的快速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)在多個領(lǐng)域取得了顯著的成功。然而,深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練面臨著梯度消失和模型退化等問題,這限制了網(wǎng)絡(luò)的深度和性能。為了解決這些問題,殘差網(wǎng)絡(luò)(ResNet)被提出。

超強!深度學(xué)習(xí)Top10演算法!

模型原理:

ResNet通過引入“殘差塊”來解決深度神經(jīng)網(wǎng)絡(luò)中的梯度消失和模型退化問題。殘差塊由一個“跳躍連接”和一個或多個非線性層組成,使得梯度可以直接從后面的層反向傳播到前面的層,從而更好地訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)。通過這種方式,ResNet能夠構(gòu)建非常深的網(wǎng)絡(luò)結(jié)構(gòu),并在多個任務(wù)上取得了優(yōu)異的性能。

模型訓(xùn)練:

ResNet的訓(xùn)練通常使用反向傳播算法和優(yōu)化算法(如隨機梯度下降)。在訓(xùn)練過程中,通過計算損失函數(shù)關(guān)于權(quán)重的梯度,并使用優(yōu)化算法更新權(quán)重,以最小化損失函數(shù)。此外,為了加速訓(xùn)練過程和提高模型的泛化能力,還可以采用正則化技術(shù)、集成學(xué)習(xí)等方法。

優(yōu)點:

  1. 解決了梯度消失和模型退化問題:通過引入殘差塊和跳躍連接,ResNet能夠更好地訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),避免了梯度消失和模型退化的問題。
  2. 構(gòu)建了非常深的網(wǎng)絡(luò)結(jié)構(gòu):由于解決了梯度消失和模型退化問題,ResNet能夠構(gòu)建非常深的網(wǎng)絡(luò)結(jié)構(gòu),從而提高了模型的性能。
  3. 在多個任務(wù)上取得了優(yōu)異的性能:由于其強大的特征學(xué)習(xí)和表示能力,ResNet在多個任務(wù)上取得了優(yōu)異的性能,如圖像分類、目標檢測等。

缺點:

  1. 計算量大:由于ResNet通常構(gòu)建非常深的網(wǎng)絡(luò)結(jié)構(gòu),因此計算量較大,需要較高的計算資源和時間進行訓(xùn)練。
  2. 參數(shù)調(diào)優(yōu)難度大:ResNet的參數(shù)數(shù)量眾多,需要花費大量時間和精力進行調(diào)優(yōu)和超參數(shù)選擇。
  3. 對初始化權(quán)重敏感:ResNet對初始化權(quán)重的選擇敏感度高,如果初始化權(quán)重不合適,可能會導(dǎo)致訓(xùn)練不穩(wěn)定或過擬合問題。

使用場景:

ResNet在計算機視覺領(lǐng)域有著廣泛的應(yīng)用場景,如圖像分類、目標檢測、人臉識別等。此外,ResNet還可以用于自然語言處理、語音識別等領(lǐng)域。

Python示例代碼(簡化版):

在這個簡化版的示例中,我們將演示如何使用Keras庫構(gòu)建一個簡單的ResNet模型。

from keras.models import Sequentialfrom keras.layers import Conv2D, Add, Activation, BatchNormalization, Shortcutdef residual_block(input, filters):x = Conv2D(filters=filters, kernel_size=(3, 3), padding='same')(input)x = BatchNormalization()(x)x = Activation('relu')(x)x = Conv2D(filters=filters, kernel_size=(3, 3), padding='same')(x)x = BatchNormalization()(x)x = Activation('relu')(x)return x

4、LSTM(長短時記憶網(wǎng)路)

在處理序列資料時,傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)路(RNN)面臨梯度消失和模型退化等問題,這限制了網(wǎng)路的深度和效能。為了解決這些問題,LSTM被提出。

超強!深度學(xué)習(xí)Top10演算法!

模型原理:

#LSTM透過引入「門控」機制來控制資訊的流動,從而解決梯度消失和模型退化問題。 LSTM有三個門控機制:輸入門、遺忘門和輸出門。輸入門決定了新資訊的進入,遺忘門決定了舊資訊的遺忘,輸出門決定最終輸出的資訊。透過這些門控機制,LSTM能夠在長期依賴問題上表現(xiàn)得更好。

模型訓(xùn)練:

LSTM的訓(xùn)練通常使用反向傳播演算法和最佳化演算法(如隨機梯度下降)。在訓(xùn)練過程中,透過計算損失函數(shù)關(guān)於權(quán)重的梯度,並使用最佳化演算法更新權(quán)重,以最小化損失函數(shù)。此外,為了加速訓(xùn)練過程和提高模型的泛化能力,還可以採用正規(guī)化技術(shù)、整合學(xué)習(xí)等方法。

優(yōu)點:

  1. 解決梯度消失和模型退化問題:透過引入閘控機制,LSTM能夠更好地處理長期依賴問題,避免了梯度消失和模型退化的問題。
  2. 建構(gòu)非常深的網(wǎng)路結(jié)構(gòu):由於解決了梯度消失和模型退化問題,LSTM能夠建構(gòu)非常深的網(wǎng)路結(jié)構(gòu),從而提高了模型的效能。
  3. 在多個任務(wù)上取得了優(yōu)異的性能:由於其強大的特徵學(xué)習(xí)和表示能力,LSTM在多個任務(wù)上取得了優(yōu)異的性能,如文本生成、語音辨識、機器翻譯等。

缺點:

  1. #參數(shù)調(diào)優(yōu)難度高:LSTM的參數(shù)數(shù)量眾多,需要花費大量時間和精力進行調(diào)優(yōu)和超參數(shù)選擇。
  2. 對初始化權(quán)重敏感:LSTM對初始化權(quán)重的選擇敏感度高,如果初始化權(quán)重不合適,可能會導(dǎo)致訓(xùn)練不穩(wěn)定或過度擬合問題。
  3. 計算量大:由於LSTM通常會建構(gòu)非常深的網(wǎng)路結(jié)構(gòu),因此運算量較大,需要較高的運算資源和時間進行訓(xùn)練。

使用場景:

LSTM在自然語言處理領(lǐng)域有著廣泛的應(yīng)用場景,如文字生成、機器翻譯、語音識別等。此外,LSTM還可用於時間序列分析、推薦系統(tǒng)等領(lǐng)域。

Python範例程式碼(簡化版):

from keras.models import Sequentialfrom keras.layers import LSTM, Densedef lstm_model(input_shape, num_classes ):model = Sequential()model.add(LSTM(units=128, input_shape=input_shape))# 新增一個LSTM層model.add(Dense(units=num_classes, activatinotallow='softmax'))# 新增一個全連接層return model

5、Word2Vec

Word2Vec模型是表徵學(xué)習(xí)的開山之作。 由Google的科學(xué)家所發(fā)展的一種用於自然語言處理的(淺層)神經(jīng)網(wǎng)路模型。 Word2Vec模型的目標是將每個字矢量化為固定大小的向量,這樣相似的字就可以被映射到相近的向量空間。

超強!深度學(xué)習(xí)Top10演算法!

模型原理

Word2Vec模型基於神經(jīng)網(wǎng)絡(luò),利用輸入的字詞預(yù)測其上下文詞。在訓(xùn)練過程中,模型嘗試學(xué)習(xí)到每個詞的向量表示,使得在給定上下文中出現(xiàn)的詞與目標詞的向量表示盡可能接近。這種訓(xùn)練方式稱為「Skip-gram」或「Continuous Bag of Words」(CBOW)。

模型訓(xùn)練

訓(xùn)練Word2Vec模型需要大量的文字資料。首先,將文字資料預(yù)處理為一系列的單字或n-gram。然後,使用神經(jīng)網(wǎng)路訓(xùn)練這些單字或n-gram的上下文。在訓(xùn)練過程中,模型會不斷調(diào)整詞的向量表示,以最小化預(yù)測誤差。

優(yōu)點

  1. 語意相似性: Word2Vec能夠?qū)W習(xí)到字與字之間的語意關(guān)係,相似的字在向量空間中距離相近。
  2. 高效的訓(xùn)練: Word2Vec的訓(xùn)練過程相對高效,可以在大規(guī)模文字資料上訓(xùn)練。
  3. 可解釋性: Word2Vec的詞向量具有一定的可解釋性,可用於諸如聚類、分類、語意相似性計算等任務(wù)。

缺點

  1. 資料稀疏性: 對於大量未在訓(xùn)練資料中出現(xiàn)的詞,Word2Vec可能無法為其產(chǎn)生準確的向量表示。
  2. 上下文視窗: Word2Vec只考慮了固定大小的上下文,可能會忽略更遠的依賴關(guān)係。
  3. 計算複雜度: Word2Vec的訓(xùn)練和推理過程需要大量的運算資源。
  4. 參數(shù)調(diào)整: Word2Vec的效能高度依賴超參數(shù)(如向量維度、視窗大小、學(xué)習(xí)率等)的設(shè)定。

使用情境

Word2Vec被廣泛應(yīng)用於各種自然語言處理任務(wù),如文字分類、情緒分析、資訊擷取等。例如,可以使用Word2Vec來識別新聞報導(dǎo)的情感傾向(正面或負面),或從大量文本中提取關(guān)鍵實體或概念。

Python範例程式碼

from gensim.models import Word2Vecfrom nltk.tokenize import word_tokenizefrom nltk.corpus import abcimport nltk# 下載與載入 abc語料庫nltk.corpus import abcimport nltk# 下載與載入 abc語料庫nltk. ('abc')corpus = abc.sents()# 將語料庫分詞並轉(zhuǎn)換為小寫sentences = [[word.lower() for word in word_tokenize(text)] for text in corpus]# 訓(xùn)練Word2Vec模型model = Word2Vec( sentences, vector_size=100, window=5, min_count=5, workers=4)# 找出字"the"的向量表示vector = model.wv['the']# 計算與其他字的相似度similarity = model.wv .similarity('the', 'of')# 印出相似度值print(similarity)

6、Transformer

背景:

在深度學(xué)習(xí)的早期階段,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識別和自然語言處理領(lǐng)域取得了顯著的成功。然而,隨著任務(wù)復(fù)雜度的增加,序列到序列(Seq2Seq)模型和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)成為處理序列數(shù)據(jù)的常用方法。盡管RNN及其變體在某些任務(wù)上表現(xiàn)良好,但它們在處理長序列時容易遇到梯度消失和模型退化問題。為了解決這些問題,Transformer模型被提出。而后的GPT、Bert等大模型都是基于Transformer實現(xiàn)了卓越的性能!

超強!深度學(xué)習(xí)Top10演算法!

模型原理:

Transformer模型主要由兩部分組成:編碼器和解碼器。每個部分都由多個相同的“層”組成。每一層包含兩個子層:自注意力子層和線性前饋神經(jīng)網(wǎng)絡(luò)子層。自注意力子層利用點積注意力機制計算輸入序列中每個位置的表示,而線性前饋神經(jīng)網(wǎng)絡(luò)子層則將自注意力層的輸出作為輸入,并產(chǎn)生一個輸出表示。此外,編碼器和解碼器都包含一個位置編碼層,用于捕獲輸入序列中的位置信息。

模型訓(xùn)練:

Transformer模型的訓(xùn)練通常使用反向傳播算法和優(yōu)化算法(如隨機梯度下降)。在訓(xùn)練過程中,通過計算損失函數(shù)關(guān)于權(quán)重的梯度,并使用優(yōu)化算法更新權(quán)重,以最小化損失函數(shù)。此外,為了加速訓(xùn)練過程和提高模型的泛化能力,還可以采用正則化技術(shù)、集成學(xué)習(xí)等方法。

優(yōu)點:

  1. 解決了梯度消失和模型退化問題:由于Transformer模型采用自注意力機制,它能夠更好地捕捉序列中的長期依賴關(guān)系,從而避免了梯度消失和模型退化的問題。
  2. 高效的并行計算能力:由于Transformer模型的計算是可并行的,因此在GPU上可以快速地進行訓(xùn)練和推斷。
  3. 在多個任務(wù)上取得了優(yōu)異的性能:由于其強大的特征學(xué)習(xí)和表示能力,Transformer模型在多個任務(wù)上取得了優(yōu)異的性能,如機器翻譯、文本分類、語音識別等。

缺點:

  1. 計算量大:由于Transformer模型的計算是可并行的,因此需要大量的計算資源進行訓(xùn)練和推斷。
  2. 對初始化權(quán)重敏感:Transformer模型對初始化權(quán)重的選擇敏感度高,如果初始化權(quán)重不合適,可能會導(dǎo)致訓(xùn)練不穩(wěn)定或過擬合問題。
  3. 無法學(xué)習(xí)長期依賴關(guān)系:盡管Transformer模型解決了梯度消失和模型退化問題,但在處理非常長的序列時仍然存在挑戰(zhàn)。

使用場景:

Transformer模型在自然語言處理領(lǐng)域有著廣泛的應(yīng)用場景,如機器翻譯、文本分類、文本生成等。此外,Transformer模型還可以用于圖像識別、語音識別等領(lǐng)域。

Python示例代碼(簡化版):

import torchimport torch.nn as nnimport torch.nn.function as Fclass TransformerModel(nn.Module):def __init__(self, vocab_size, embedding_dim, num_heads, num_layers, 5 ).__init__()self.embedding = nn.Embedding(vocab_size, embedding_dim)self.transformer = nn.Transformer(d_model=embedding_dim, nhead=num_heads, num_encoder_layers=num_layers, num_decoder_layers=num_layers, dropout=dropout_rate)self.fc = nn .Linear(embedding_dim, vocab_size)def forward(self, src, tgt):embedded = self.embedding(src)output = self.transformer(embedded)output = self.fc(output)回傳輸出輸出pip

7、生成對抗網(wǎng)路(GAN)

GAN的想法源自於博弈論中的零和遊戲,其中一個玩家試圖生成最逼真的假數(shù)據(jù),而另一個玩家則嘗試區(qū)分真實數(shù)據(jù)與假數(shù)據(jù)。 GAN由蒙提霍爾問題(一種生成模型與判別模型組合的問題)演變而來,但與蒙提霍爾問題不同,GAN不強調(diào)逼近某些機率分佈或產(chǎn)生某種樣本,而是直接使用生成模型與判別模型進行對抗。

超強!深度學(xué)習(xí)Top10演算法!

模型原理:

#GAN由兩個部分組成:生成器(Generator)和判別器(Discriminator)。生成器的任務(wù)是產(chǎn)生假數(shù)據(jù),而判別器的任務(wù)是判斷輸入的數(shù)據(jù)是來自真實數(shù)據(jù)集還是生成器產(chǎn)生的假數(shù)據(jù)。在訓(xùn)練過程中,生成器和判別器進行對抗,不斷調(diào)整參數(shù),直到達到一個平衡狀態(tài)。此時,生成器產(chǎn)生的假數(shù)據(jù)足夠逼真,使得判別器無法區(qū)分真實數(shù)據(jù)與假數(shù)據(jù)。

模型訓(xùn)練:

GAN的訓(xùn)練過程是一個最佳化問題。在每個訓(xùn)練步驟中,首先使用目前參數(shù)下的生成器產(chǎn)生假數(shù)據(jù),然後使用判別器判斷這些數(shù)據(jù)是真實的還是產(chǎn)生的。接著,根據(jù)這個判斷結(jié)果更新判別器的參數(shù)。同時,為了防止判別器過度擬合,還需要對生成器進行訓(xùn)練,使得產(chǎn)生的假資料能夠欺騙判別器。這個過程反覆進行,直到達到平衡狀態(tài)。

優(yōu)點:

  1. 強大的生成能力:GAN能夠?qū)W習(xí)到資料的內(nèi)在結(jié)構(gòu)和分佈,從而產(chǎn)生非常逼真的假數(shù)據(jù)。
  2. 無需顯式監(jiān)督:GAN的訓(xùn)練過程中不需要顯式的標籤訊息,只需要真實資料即可。
  3. 靈活性高:GAN可以與其他模型結(jié)合使用,例如與自編碼器結(jié)合形成AutoGAN,或與卷積神經(jīng)網(wǎng)路結(jié)合形成DCGAN等。

缺點:

  1. #訓(xùn)練不穩(wěn)定性:GAN的訓(xùn)練過程不穩(wěn)定,容易陷入模式崩潰(mode collapse )的問題,即生成器只產(chǎn)生某一種樣本,導(dǎo)致判別器無法正確判斷。
  2. 難以偵錯:GAN的偵錯比較困難,因為生成器和判別器之間存在複雜的相互作用。
  3. 難以評估:由於GAN的生成能力很強,很難評估其產(chǎn)生的假資料的真實性和多樣性。

使用場景:

  1. #映像產(chǎn)生:GAN最常用於影像生成任務(wù),可以產(chǎn)生各種風(fēng)格的圖像,例如根據(jù)文字描述生成圖像、將一幅圖像轉(zhuǎn)換為另一個風(fēng)格等。
  2. 資料增強:GAN可以用來產(chǎn)生類似真實資料的假數(shù)據(jù),用於擴充資料集或改進模型的泛化能力。
  3. 影像修復(fù):GAN可以用於修復(fù)影像中的缺陷或移除影像中的雜訊。
  4. 影片產(chǎn)生:基於GAN的影片產(chǎn)生是目前研究的熱點之一,可以產(chǎn)生各種風(fēng)格的影片。

簡單的Python範例程式碼:

#以下是一個簡單的GAN範例程式碼,使用PyTorch實作:

import torchimport torch.nn as nnimport torch.optim as optimimport torch.nn.functional as F# 定義生成器與判別器網(wǎng)路結(jié)構(gòu)class Generator(nn.Module):def __init__(self, input_dim) :super(Generator, self).__init__()self.model = nn.Sequential(nn.Linear(input_dim, 128),nn.ReLU(),nn.Linear(128, output_dim),nn.Sigmoid())defnn. forward(self, x):return self.model(x)class Discriminator(nn.Module):def __init__(self, input_dim):super(Discriminator, self).__init__()self.model = nn.Sequential(nn. Linear(input_dim, 128),nn.ReLU(),nn.Linear(128, 1),nn.Sigmoid())def forward(self, x):return self.model(x)# 實例化產(chǎn)生器與判別器物件input_dim = 100# 輸入維度可依實際需求調(diào)整output_dim = 784# 對於MNIST資料集,輸出維度為28*28=784gen = Generator(input_dim, output_dim)disc = Discriminator(output_dim)# 定義損失函數(shù)與最佳化器criterion = nn.BCELoss()# 二分類交叉熵損失函數(shù)適用於GAN的判別器部分和生成器的logistic損失部分。但是,通常更常見的選擇是採用二元交叉熵損失函數(shù)(binary cross
#

8、Diffusion擴散模型

Diffusion模型是基於深度學(xué)習(xí)的生成模型,它主要用於產(chǎn)生連續(xù)數(shù)據(jù),如影像、音訊等。 Diffusion模型的核心思想是透過逐步添加雜訊來將複雜資料分佈轉(zhuǎn)換為簡單的高斯分佈,然後再透過逐步去除雜訊來從簡單分佈中產(chǎn)生資料。

超強!深度學(xué)習(xí)Top10演算法!

模型原理

Diffusion模型包含兩個主要過程:前向擴散過程和反向擴散過程。

前向擴散過程:

  • 從真實資料分佈取樣一個資料點(x_0)。
  • 在(T)個時間步內(nèi),逐步在(x_0)中加入噪聲,產(chǎn)生一系列逐漸遠離真實資料分佈的噪聲資料點(x_1, x_2, ..., x_T)。
  • 這個過程可以看成是將資料分佈逐漸轉(zhuǎn)換為高斯分佈。

反向擴散過程(也稱為去噪過程):

  • 從噪聲資料分佈(x_T)開始,逐步去除噪聲,產(chǎn)生一系列逐漸接近真實資料分佈的資料點(x_{T-1}, x_{T-2}, ..., x_0)。
  • 這個過程是透過學(xué)習(xí)一個神經(jīng)網(wǎng)路來預(yù)測每一步的噪聲,並用這個預(yù)測來逐步去噪。

模型訓(xùn)練

訓(xùn)練Diffusion模型通常涉及以下步驟:

  1. 前向擴散:對訓(xùn)練資料集中的每個樣本(x_0),依照預(yù)定的噪音調(diào)度方案,產(chǎn)生對應(yīng)的噪音序列(x_1, x_2, ..., x_T)。
  2. 雜訊預(yù)測:對於每個時間步(t),訓(xùn)練一個神經(jīng)網(wǎng)路來預(yù)測(x_t)中的雜訊。這個神經(jīng)網(wǎng)路通常是條件變分自編碼器(Conditional Variational Autoencoder, CVAE),它接收(x_t)和時間步(t)作為輸入,並輸出預(yù)測的雜訊。
  3. 優(yōu)化:透過最小化真實雜訊和預(yù)測雜訊之間的差異來優(yōu)化神經(jīng)網(wǎng)路參數(shù)。常用的損失函數(shù)是均方誤差(Mean Squared Error, MSE)。

優(yōu)點

  • 強大的生成能力:Diffusion模型能夠產(chǎn)生高品質(zhì)、多樣化的資料樣本。
  • 漸進式產(chǎn)生:模型可以在生成過程中提供中間結(jié)果,這有助於理解模型的生成過程。
  • 穩(wěn)定訓(xùn)練:相較於其他一些生成模型(如GANs),Diffusion模型通常更容易訓(xùn)練,而且不太容易出現(xiàn)模式崩潰(mode collapse)問題。

缺點

  • 計算量大:由於需要在多個時間步上進行前向和反向擴散,Diffusion模型的訓(xùn)練和生成過程通常比較耗時。
  • 參數(shù)數(shù)量多:對於每個時間步,都需要一個單獨的神經(jīng)網(wǎng)路進行雜訊預(yù)測,這導(dǎo)致模型參數(shù)數(shù)量較多。

使用場景

Diffusion模型適用於需要產(chǎn)生連續(xù)資料的場景,如影像生成、音訊生成、視訊生成等。此外,由於模型具有漸進式生成的特點,它還可以用於資料插值、風(fēng)格遷移等任務(wù)。

Python範例程式碼

下面是一個簡化的Diffusion模型訓(xùn)練的範例程式碼,使用了PyTorch函式庫:

import torchimport torch.nn as nnimport torch.optim as optim# 假設(shè)我們有一個簡單的Diffusion模型class DiffusionModel(nn.Module):def __init__(self, input_dim, hidden_??dim, _times(time)( , self).__init__()self.num_timesteps = num_timestepsself.noises = nn.ModuleList([nn.Linear(input_dim, hidden_??dim),nn.ReLU(),nn.Linear(hidden_??dim, input_dim),nn.ReLU(),nn.Linear(hidden_??dim, input_dim)-dimfumin form( ))def forward(self, x, t):noise_prediction = self.noises[t](x)return noise_prediction# 設(shè)定模型參數(shù)input_dim = 784# 假設(shè)輸入是28x28的灰階影像hidden_??dim = 128num_初始化模型= DiffusionModel(input_dim, hidden_??dim, num_timesteps)# 定義損失函數(shù)與最佳化器criterion = nn.MSELoss()optimizer = optim.Adam(model.parameters(), lr=1e-3)
#####parameters()、

9.圖神經(jīng)網(wǎng)路(GNN)

圖神經(jīng)網(wǎng)路(Graph Neural Networks,簡稱GNN)是專門用於處理圖結(jié)構(gòu)資料的深度學(xué)習(xí)模型。在現(xiàn)實世界中,許多複雜系統(tǒng)都可以用圖來表示,例如社交網(wǎng)路、分子結(jié)構(gòu)、交通網(wǎng)絡(luò)等。傳統(tǒng)的機器學(xué)習(xí)模型在處理這些圖結(jié)構(gòu)資料時面臨許多挑戰(zhàn),而圖神經(jīng)網(wǎng)路則為這些問題的解決提供了新的想法。

超強!深度學(xué)習(xí)Top10演算法!

模型原理:

圖神經(jīng)網(wǎng)路的核心思想是透過神經(jīng)網(wǎng)路對圖中的節(jié)點進行特徵表示學(xué)習(xí),同時考慮節(jié)點間的關(guān)係。具體來說,GNN透過迭代地傳遞鄰居資訊來更新節(jié)點的表示,使得相同的社區(qū)或相近的節(jié)點具有相近的表示。在每一層,節(jié)點會根據(jù)其鄰居節(jié)點的資訊來更新自己的表示,從而捕捉到圖中的複雜模式。

模型訓(xùn)練:

訓(xùn)練圖神經(jīng)網(wǎng)路通常採用基於梯度的最佳化演算法,如隨機梯度下降(SGD)。訓(xùn)練過程中,透過反向傳播演算法計算損失函數(shù)的梯度,並更新神經(jīng)網(wǎng)路的權(quán)重。常用的損失函數(shù)包括節(jié)點分類的交叉熵損失、連結(jié)預(yù)測的二元交叉熵損失等。

優(yōu)點:

  • 強大的表示能力:圖神經(jīng)網(wǎng)路能夠有效地捕捉圖結(jié)構(gòu)中的複雜模式,從而在節(jié)點分類、連結(jié)預(yù)測等任務(wù)上取得較好的效果。
  • 自然處理圖結(jié)構(gòu)資料:圖神經(jīng)網(wǎng)路直接對圖結(jié)構(gòu)資料進行處理,不需要將圖轉(zhuǎn)換為矩陣形式,從而避免了大規(guī)模稀疏矩陣帶來的計算和儲存開銷。
  • 可擴展性強:圖神經(jīng)網(wǎng)路可以透過堆疊更多的層來捕捉更複雜的模式,具有很強的可擴展性。

缺點:

  • 計算複雜度高:隨著圖中節(jié)點和邊的增多,圖神經(jīng)網(wǎng)路的運算複雜度也會急劇增加,這可能導(dǎo)致訓(xùn)練時間較長。
  • 參數(shù)調(diào)整困難:圖神經(jīng)網(wǎng)路的超參數(shù)較多,如鄰域大小、層數(shù)、學(xué)習(xí)率等,調(diào)整這些參數(shù)可能需要對任務(wù)有深入的理解。
  • 對無向圖和有向圖的適應(yīng)性不同:圖神經(jīng)網(wǎng)路最初是為無向圖設(shè)計的,對於有向圖的適應(yīng)性可能較差。

使用場景:

  • 社群網(wǎng)路分析:在社群網(wǎng)路中,使用者之間的關(guān)係可以用圖來表示。透過圖神經(jīng)網(wǎng)路可以分析使用者之間的相似性、社群發(fā)現(xiàn)、影響力傳播等問題。
  • 分子結(jié)構(gòu)預(yù)測:在化學(xué)領(lǐng)域,分子的結(jié)構(gòu)可以用圖形來表示。透過訓(xùn)練圖神經(jīng)網(wǎng)路可以預(yù)測分子的性質(zhì)、化學(xué)反應(yīng)等。
  • 推薦系統(tǒng):推薦系統(tǒng)可以利用使用者的行為資料建立圖,然後使用圖神經(jīng)網(wǎng)路來捕捉使用者的行為模式,從而進行精準推薦。
  • 知識圖譜:知識圖譜可以看作是一種特殊的圖結(jié)構(gòu)數(shù)據(jù),透過圖神經(jīng)網(wǎng)路可以對知識圖譜中的實體和關(guān)係進行深入分析。

簡單的Python範例程式碼:

import torchfrom torch_geometric.datasets import Planetoidfrom torch_geometric.nn import GCNConvfrom torch_geometric.data import DataLoaderimport time# 載入Cora資料集dataset = Planetoid(roots=#t/Cora)', 定義/Cora資料集) GNN模型class GNN(torch.nn.Module):def __init__(self, in_channels, hidden_??channels, out_channels):super(GNN, self).__init__()self.conv1 = GCNConv(in_channels, hidden_??channels, h3v2) = GCNConv(in_channels, hidden_??channels) hidden_??channels, out_channels)def forward(self, data):x, edge_index = data.x, data.edge_indexx = self.conv1(x, edge_index)x = F.relu(x)x = F.dropout(x, training= self.training)x = self.conv2(x, edge_index)return F.log_softmax(x, dim=1)# 定義超參數(shù)與模型訓(xùn)練過程num_epochs = 1000lr = 0.01hidden_??channels = 16out_channels = dataset.set_classes0] # 使用資料集中的第一個資料作為範例資料model = GNN(dataset.num_features, hidden_??channels, out_channels)optimizer = torch.optim.Adam(model.parameters(), lr=lr)data = DataLoader([data], batch_size=1)# 將資料集轉(zhuǎn)換為DataLoader對象,以支援批次訓(xùn)練和評估m(xù)odel.train()# 設(shè)定模型為訓(xùn)練模式for epoch in range(num_epochs):for data in data:# 在每個epoch中遍歷整個資料集一次optimizer.zero_grad()# 清零梯度out = model(data)# 前向傳播,計算輸出和損失函數(shù)值loss = F.nll_loss(out[data.train_mask], data.y[data.train_mask ])# 計算損失函數(shù)值,這裡使用負對數(shù)似然損失函數(shù)作為範例損失函數(shù)loss.backward()# 反向傳播,計算梯度optimizer.step()# 更新權(quán)重參數(shù)

10、深度Q網(wǎng)路(DQN)

在傳統(tǒng)的強化學(xué)習(xí)演算法中,智能體使用一個Q表來儲存狀態(tài)-動作值函數(shù)的估計值。然而,這種方法在處理高維度狀態(tài)和動作空間時遇到限制。為了解決這個問題,DQN是一種深度強化學(xué)習(xí)演算法,引入了深度學(xué)習(xí)技術(shù)來學(xué)習(xí)狀態(tài)-動作值函數(shù)的逼近,從而能夠處理更複雜的問題。

超強!深度學(xué)習(xí)Top10演算法!

模型原理:

DQN使用一個神經(jīng)網(wǎng)路(稱為深度Q網(wǎng)路)來逼近狀態(tài)-動作值函數(shù)。此神經(jīng)網(wǎng)路接受當前狀態(tài)作為輸入,並輸出每個動作的Q值。在訓(xùn)練過程中,智能體透過不斷與環(huán)境互動來更新神經(jīng)網(wǎng)路的權(quán)重,以逐漸逼近最優(yōu)的Q值函數(shù)。

模型訓(xùn)練:

DQN的訓(xùn)練過程包括兩個階段:離線階段和線上階段。在離線階段,智能體從經(jīng)驗回放緩衝區(qū)中隨機取樣一批經(jīng)驗(即狀態(tài)、動作、獎勵和下一個狀態(tài)),並使用這些經(jīng)驗來更新深度Q網(wǎng)路。在線上階段,智能體使用目前的狀態(tài)和深度Q網(wǎng)路來選擇和執(zhí)行最佳的行動,並將新的經(jīng)驗儲存在經(jīng)驗回放緩衝區(qū)中。

優(yōu)點:

  • 處理高維度狀態(tài)和動作空間:DQN能夠處理具有高維度狀態(tài)和動作空間的複雜問題,這使得它在許多領(lǐng)域中具有廣泛的應(yīng)用。
  • 減少資料依賴性:透過使用經(jīng)驗回放緩衝區(qū),DQN可以在有限的樣本下進行有效的訓(xùn)練。
  • 靈活性:DQN可與其他強化學(xué)習(xí)演算法和技術(shù)結(jié)合使用,以進一步提高效能並擴展其應(yīng)用範圍。

缺點:

  • 不穩(wěn)定訓(xùn)練:在某些情況下,DQN的訓(xùn)練可能會不穩(wěn)定,導(dǎo)致學(xué)習(xí)過程失敗或表現(xiàn)下降。
  • 探索策略:DQN需要一個有效的探索策略來探索環(huán)境並收集足夠的經(jīng)驗。選擇合適的探索策略是關(guān)鍵,因為它可以影響學(xué)習(xí)速度和最終的表現(xiàn)。
  • 對目標網(wǎng)路的需求:為了穩(wěn)定訓(xùn)練,DQN通常需要使用目標網(wǎng)路來更新Q值函數(shù)。這增加了演算法的複雜性並需要額外的參數(shù)調(diào)整。

使用場景:

DQN已被廣泛應(yīng)用於各種遊戲AI任務(wù),如圍棋、紙牌遊戲等。此外,它還被應(yīng)用於其他領(lǐng)域,如機器人控制、自然語言處理和自動駕駛等。

python導(dǎo)入numpy為np導(dǎo)入張量流為tffromtensorflow.keras.models導(dǎo)入Sequentialfromtensorflow.keras.layers導(dǎo)入Dense,Dropoutclass DQN:def __init__(self,state_size,action_size):self.state_size = state_sizesize = action_sizeself .memory = np.zeros((MEM_CAPACITY, state_size * 2 2))self.gamma = 0.95self.epsilon = 1.0self.epsilon_min = 0.01self.epsilon_decay = 0.995.50. () def create_model(self):model = Sequential()model.add(Dense(24, input_dim=self.state_size,activation='relu'))model.add(Dense(24,activation='relu'))model .add (密集(self.action_size,激活='線性'))model.compile(損失='mse',optimizer=tf.keras.optimizers.Adam(lr=self.learning_rate))return modeldef Remember(self,state ,action) , 獎勵, next_state, 完成):self.memory[self.memory_counter % MEM_CAPACITY, :] = [狀態(tài), 操作, 獎勵, next_state, 完成]self.memory_counter = 1def act(self, 狀態(tài)):if np. random.rand () 


以上是超強!深度學(xué)習(xí)Top10演算法!的詳細內(nèi)容。更多資訊請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願投稿,版權(quán)歸原作者所有。本站不承擔相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Laravel 教程
1597
29
PHP教程
1488
72
位元組跳動剪映推出 SVIP 超級會員:連續(xù)包年 499 元,提供多種 AI 功能 位元組跳動剪映推出 SVIP 超級會員:連續(xù)包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發(fā)的一款影片剪輯軟體,依託於抖音平臺且基本面向該平臺用戶製作短影片內(nèi)容,並相容於iOS、安卓、Windows 、MacOS等作業(yè)系統(tǒng)。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數(shù)位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續(xù)包月則為59元每月,連續(xù)包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

為大模型提供全新科學(xué)複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學(xué)等多家機構(gòu)共同推出SciQAG框架 為大模型提供全新科學(xué)複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學(xué)等多家機構(gòu)共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發(fā)揮著至關(guān)重要的作用。高品質(zhì)QA資料集不僅可以用於微調(diào)模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學(xué)知識的理解和推理能力。儘管目前已有許多科學(xué)QA數(shù)據(jù)集,涵蓋了醫(yī)學(xué)、化學(xué)、生物等領(lǐng)域,但這些數(shù)據(jù)集仍有一些不足之處。其一,資料形式較為單一,大多數(shù)為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學(xué)問題解答能力。相比之下,開放式問答

SK 海力士 8 月 6 日將展示 AI 相關(guān)新品:12 層 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日將展示 AI 相關(guān)新品:12 層 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)發(fā)布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導(dǎo)體記憶體峰會FMS2024,展示諸多新一代產(chǎn)品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應(yīng)商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術(shù)日益受到關(guān)注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應(yīng)商等更多參與者。新產(chǎn)品SK海力士去年在

AlphaFold 3 重磅問世,全面預(yù)測蛋白質(zhì)與所有生命分子相互作用及結(jié)構(gòu),準確度遠超以往水平 AlphaFold 3 重磅問世,全面預(yù)測蛋白質(zhì)與所有生命分子相互作用及結(jié)構(gòu),準確度遠超以往水平 Jul 16, 2024 am 12:08 AM

編輯|蘿卜皮自2021年發(fā)布強大的AlphaFold2以來,科學(xué)家們一直在使用蛋白質(zhì)結(jié)構(gòu)預(yù)測模型來繪制細胞內(nèi)各種蛋白質(zhì)結(jié)構(gòu)的圖譜、發(fā)現(xiàn)藥物,并繪制每種已知蛋白質(zhì)相互作用的「宇宙圖」。就在剛剛,GoogleDeepMind發(fā)布了AlphaFold3模型,該模型能夠?qū)Πǖ鞍踪|(zhì)、核酸、小分子、離子和修飾殘基在內(nèi)的復(fù)合物進行聯(lián)合結(jié)構(gòu)預(yù)測。AlphaFold3的準確性對比過去許多專用工具(蛋白質(zhì)-配體相互作用、蛋白質(zhì)-核酸相互作用、抗體-抗原預(yù)測)有顯著提高。這表明,在單個統(tǒng)一的深度學(xué)習(xí)框架內(nèi),可以實現(xiàn)

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預(yù)測AI方法,首次結(jié)合分子表面訊息 SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預(yù)測AI方法,首次結(jié)合分子表面訊息 Jul 17, 2024 pm 06:37 PM

編輯|KX在藥物研發(fā)領(lǐng)域,準確有效地預(yù)測蛋白質(zhì)與配體的結(jié)合親和力對於藥物篩選和優(yōu)化至關(guān)重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質(zhì)-配體相互作用中的重要作用?;洞?,來自廈門大學(xué)的研究人員提出了一種新穎的多模態(tài)特徵提?。∕FE)框架,該框架首次結(jié)合了蛋白質(zhì)表面、3D結(jié)構(gòu)和序列的信息,並使用交叉注意機制進行不同模態(tài)之間的特徵對齊。實驗結(jié)果表明,該方法在預(yù)測蛋白質(zhì)-配體結(jié)合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內(nèi)蛋白質(zhì)表面資訊和多模態(tài)特徵對齊的有效性和必要性。相關(guān)研究以「S

Iyo One:是耳機,也是音訊計算機 Iyo One:是耳機,也是音訊計算機 Aug 08, 2024 am 01:03 AM

任何時候,專注都是一種美德。作者|湯一濤編輯|靖宇人工智慧的再次流行,催生了新一波的硬體創(chuàng)新。風(fēng)頭最勁的AIPin遭遇了前所未有的負評。 MarquesBrownlee(MKBHD)稱這是他評測過的最糟糕的產(chǎn)品;TheVerge的編輯DavidPierce則表示,他不會建議任何人購買這款設(shè)備。它的競爭對手RabbitR1也沒有好到哪裡去。對這款A(yù)I設(shè)備最大的質(zhì)疑是,明明只是做一個App的事情,但Rabbit公司卻整出了一個200美元的硬體。許多人把AI硬體創(chuàng)新視為顛覆智慧型手機時代的機會,並投身其

佈局 AI 等市場,格芯收購泰戈爾科技氮化鎵技術(shù)和相關(guān)團隊 佈局 AI 等市場,格芯收購泰戈爾科技氮化鎵技術(shù)和相關(guān)團隊 Jul 15, 2024 pm 12:21 PM

本站7月5日消息,格芯(GlobalFoundries)於今年7月1日發(fā)布新聞稿,宣布收購泰戈爾科技(TagoreTechnology)的功率氮化鎵(GaN)技術(shù)及智慧財產(chǎn)權(quán)組合,希望在汽車、物聯(lián)網(wǎng)和人工智慧資料中心應(yīng)用領(lǐng)域探索更高的效率和更好的效能。隨著生成式人工智慧(GenerativeAI)等技術(shù)在數(shù)位世界的不斷發(fā)展,氮化鎵(GaN)已成為永續(xù)高效電源管理(尤其是在資料中心)的關(guān)鍵解決方案。本站引述官方公告內(nèi)容,在本次收購過程中,泰戈爾科技公司工程師團隊將加入格芯,進一步開發(fā)氮化鎵技術(shù)。 G

首個全自動科學(xué)發(fā)現(xiàn)AI系統(tǒng),Transformer作者新創(chuàng)公司Sakana AI推出AI Scientist 首個全自動科學(xué)發(fā)現(xiàn)AI系統(tǒng),Transformer作者新創(chuàng)公司Sakana AI推出AI Scientist Aug 13, 2024 pm 04:43 PM

編輯|ScienceAI一年前,Google最後一位Transformer論文作者LlionJones離職創(chuàng)業(yè),與前Google研究人員DavidHa共同創(chuàng)立人工智慧公司SakanaAI。 SakanaAI聲稱將創(chuàng)建一種基於自然啟發(fā)智能的新型基礎(chǔ)模型!現(xiàn)在,SakanaAI交上了自己的答案。 SakanaAI宣布推出AIScientist,這是世界上第一個用於自動化科學(xué)研究和開放式發(fā)現(xiàn)的AI系統(tǒng)!從構(gòu)思、編寫程式碼、運行實驗和總結(jié)結(jié)果,到撰寫整篇論文和進行同行評審,AIScientist開啟了AI驅(qū)動的科學(xué)研究和加速

See all articles