亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

Table des matières
Objectifs d'apprentissage
Table des matières
Qu'est-ce que le sac de mots continu?
Comment fonctionne le sac de mots continu
Comprendre le contexte et les mots cibles
Processus étape par étape de CBOW
étape 1: Préparation des données
étape2: générer des paires de cibles contextuelles
étape 3: Encodage à un hot
étape 4: Couche d'intégration
étape 5: Aggrégation de contexte
étape 6: Prédiction
étape7: Calcul et optimisation des pertes
étape8: Répétez pour toutes les paires
CBOW Architecture expliqué en détail
Couche d'entrée
Couche d'incorporation
Couche cachée: agrégation de contexte
Couche de sortie
Fonction de perte
Exemple de CBOW en action
Diagramme de l'architecture CBOW
Codage cbow à partir de zéro (avec des exemples python)
Préparer des données pour CBOW
Créer le mot dictionnaire
Exemple d'encodage à un chaud
Construire le modèle CBOW à partir de zéro
Utilisation de TensorFlow pour implémenter CBOW
Utilisation de Gensim pour CBOW
Avantages du sac continu de mots
Limites du sac continu de mots
Conclusion
Principaux à retenir
Questions fréquemment posées
Maison Périphériques technologiques IA Comprendre un sac continu de mots (CBOW)

Comprendre un sac continu de mots (CBOW)

Mar 17, 2025 am 09:46 AM

La sémantique est importante car dans la PNL, ce sont les relations entre les mots qui sont étudiés. L'une des procédures les plus simples mais très efficaces est le sac continu de mots (CBOW) qui mappe les mots à des vecteurs très significatifs appelés vecteurs de mots. CBOW est utilisé dans le cadre Word2Vec et prédit un mot basé sur les mots qui y sont adjacents qui capturent le sens sémantique et syntaxique du langage. Dans cet article, le lecteur se rendra compte du fonctionnement du modèle CBOW, ainsi que des méthodes de son utilisation.

Objectifs d'apprentissage

  • Comprendre la théorie derrière le modèle CBOW.
  • Apprenez les différences entre CBOW et Skip-Gram.
  • Implémentez le modèle CBOW dans Python avec un exemple de jeu de données.
  • Analyser les avantages et les limitations de CBOW.
  • Explorez les cas d'utilisation pour les incorporations de mots générées par CBOW.

Table des matières

  • Qu'est-ce que le sac de mots continu?
  • Comment fonctionne le sac de mots continu
  • CBOW Architecture expliqué en détail
  • Codage cbow à partir de zéro (avec des exemples python)
  • Avantages du sac continu de mots
  • Limites du sac continu de mots
  • Questions fréquemment posées

Qu'est-ce que le sac de mots continu?

Le sac continu de mots (CBOW) est également un modèle qui est utilisé lors de la détermination de l'intégration des mots à l'aide d'un réseau de neurones et fait partie des modèles Word2Vec de Tomas Mikolov. CBOW essaie de prédire un mot cible en fonction des mots de contexte l'observant dans une phrase donnée. De cette fa?on, il est capable de capturer les relations sémantiques, donc les mots proches sont représentés étroitement dans un espace de grande dimension.

Par exemple, dans la phrase ?Le chat s'est assis sur le tapis? , si la taille de la fenêtre de contexte est 2, les mots de contexte pour ?SAT? sont [le ??, ?chat?, ?on?, ?le?] , et la tache du modèle est de prédire le mot ?SAT? .

CBOW opère en agrégeant les mots de contexte (par exemple, en moyenne leurs intérêts) et en utilisant cette représentation agrégée pour prédire le mot cible. L'architecture du modèle implique une couche d'entrée pour les mots de contexte, une couche cachée pour la génération d'intégration et une couche de sortie pour prédire le mot cible à l'aide d'une distribution de probabilité.

Il s'agit d'un modèle rapide et efficace adapté à la gestion des mots fréquents, ce qui le rend idéal pour les taches nécessitant une compréhension sémantique, telles que la classification du texte, les systèmes de recommandation et l'analyse des sentiments.

Comment fonctionne le sac de mots continu

Le CBOW est l'une des techniques les plus simples et les plus efficaces selon le contexte de l'intégration des mots où l'ensemble du vocabulaire des mots est cartographié aux vecteurs. Cette section décrit également le fonctionnement du système CBOW comme un moyen de comprendre la méthode à son niveau le plus élémentaire, discutant des principales idées qui sous-tendent la méthode CBOW, ainsi que d'offrir un guide complet de la disposition architecturale du système de calcul de Hit CBOW.

Comprendre le contexte et les mots cibles

CBOW s'appuie sur deux concepts clés: les mots de contexte et le mot cible.

  • Mots de contexte : Ce sont les mots entourant un mot cible dans une taille de fenêtre définie. Par exemple, dans la phrase:
    "Le renard brun rapide saute par-dessus le chien paresseux" ,
    Si le mot cible est ?renard? et que la taille de la fenêtre de contexte est de 2, les mots de contexte sont [?rapides?, ?brun?, ?sauts?, ?sur?] .
  • Mot cible : c'est le mot que CBOW vise à prédire, compte tenu des mots de contexte. Dans l'exemple ci-dessus, le mot cible est ?Fox? .

En analysant la relation entre le contexte et les mots cibles dans les grands corpus, CBOW génère des intégres qui capturent les relations sémantiques entre les mots.

Processus étape par étape de CBOW

Voici une ventilation du fonctionnement du CBOW, étape par étape:

étape 1: Préparation des données

  • Choisissez un corpus de texte (par exemple, des phrases ou des paragraphes).
  • Tokenize le texte en mots et construisez un vocabulaire.
  • Définissez une taille de fenêtre de contexte nnn (par exemple, 2 mots de chaque c?té).

étape2: générer des paires de cibles contextuelles

  • Pour chaque mot du corpus, extraire ses mots de contexte environnant en fonction de la taille de la fenêtre.
  • Exemple: Pour la phrase ?J'adore l'apprentissage automatique? et n = 2n = 2n = 2, les paires sont: les mots de mot cible Motchs Love [?I?, ?Machine?] Machine [?Love?, ?Apprentissage?]

étape 3: Encodage à un hot

Convertissez les mots de contexte et le mot cible en vecteurs à un hot basé sur la taille du vocabulaire. Pour un vocabulaire de la taille 5, la représentation à un hot du mot ?amour? pourrait ressembler à [0, 1, 0, 0, 0] .

étape 4: Couche d'intégration

Passez les mots de contexte codés à un hot à travers une couche d'intégration. Cette couche mappe chaque mot à une représentation vectorielle dense, généralement d'une dimension inférieure que la taille du vocabulaire.

étape 5: Aggrégation de contexte

Agréger les intérêts de tous les mots de contexte (par exemple, en les faisant la moyenne ou en les additionnant) pour former un seul vecteur de contexte.

étape 6: Prédiction

  • Fournitez le vecteur de contexte agrégé dans un réseau neuronal entièrement connecté avec une couche de sortie Softmax.
  • Le modèle prédit le mot le plus probable comme cible en fonction de la distribution de probabilité sur le vocabulaire.

étape7: Calcul et optimisation des pertes

  • Calculez l'erreur entre le mot cible prévu et réel à l'aide d'une fonction de perte entre l'entropie.
  • Backpropagate l'erreur pour ajuster les poids dans les couches d'incorporation et de prédiction.

étape8: Répétez pour toutes les paires

Répétez le processus pour toutes les paires de cibles contextuelles dans le corpus jusqu'à ce que le modèle converge.

CBOW Architecture expliqué en détail

L'architecture du modèle de mots continu (CBOW) est con?ue pour prédire un mot cible basé sur ses mots contextuels environnants. Il s'agit d'un réseau neuronal peu profond avec une structure simple mais efficace. L'architecture CBOW se compose des composants suivants:

Couche d'entrée

  • Représentation des entrées :
    L'entrée du modèle est les mots de contexte représentés comme des vecteurs codés à un hot .
    • Si la taille du vocabulaire est V, chaque mot est représenté comme un vecteur à un hot de taille V avec un seul 1 à l'index correspondant au mot, et 0s ailleurs.
    • Par exemple, si le vocabulaire est [?chat?, ?chien?, ?renard?, ?arbre?, ?oiseau?] et le mot ?renard? est le troisième mot, son vecteur à un chaud est [0,0,1,0,0] [0, 0, 1, 0, 0] [0,0,1,0,0].
  • Fenêtre de contexte :
    La taille de la fenêtre de contexte n détermine le nombre de mots de contexte utilisés. Si n = 2, deux mots de chaque c?té du mot cible sont utilisés.
    • Pour une phrase: ?Le renard brun rapide saute par-dessus le chien paresseux? et le mot cible ?renard? , les mots de contexte avec n = 2 sont [?rapides?, ?brun?, ?sauts?, ?over?] .

Couche d'incorporation

  • But :
    Cette couche convertit les vecteurs à un hot qui existent dans une dimension élevée en vecteurs de dimensions denses et de faibles de faibles. Contrairement au fait que dans les mots d'intégration des mots, les mots sont représentés comme des vecteurs avec des valeurs principalement nulles, dans la couche d'incorporation, chaque mot est codé par le vecteur continu des dimensions requises qui reflètent des caractéristiques spécifiques du sens du mot.
  • Matrice d'intégration de mot :
    La couche d'incorporation maintient une matrice d'intégration de mot W de taille V × D, où V est la taille du vocabulaire et D est la dimension d'intégration.
    • Chaque rangée de w représente l'incorporation d'un mot.
    • Pour un vecteur à un hot xxx, l'incorporation est calculée comme w ^ tx x.
  • Context Word Embeddings :
    Chaque mot de contexte est transformé en son vecteur dense correspondant en utilisant la matrice d'incorporation. Si la taille de la fenêtre n = 2, et que nous avons 4 mots de contexte, les intérêts pour ces mots sont extraits.

Couche cachée: agrégation de contexte

  • But :
    Les intérêts des mots de contexte sont combinés pour former un seul vecteur de contexte.
  • Méthodes d'agrégation :
    • En moyenne : les intérêts de tous les mots de contexte sont moyennés pour calculer le vecteur de contexte.

Comprendre un sac continu de mots (CBOW)

  • Résumé : Au lieu de faire la moyenne, les intérêts sont additionnés.

Comprendre un sac continu de mots (CBOW)

  • Vector de contexte résultant : Le résultat est un Vector dense unique HHH, qui représente le contexte agrégé des mots environnants.

Couche de sortie

  • Objectif : La couche de sortie prédit le mot cible en utilisant le vecteur de contexte HHH.
  • Couche entièrement connectée : le vecteur de contexte HHH est passé à travers une couche entièrement connectée, qui obtient un score brut pour chaque mot dans le vocabulaire. Ces scores sont appelés logits.
  • Fonction Softmax : les logits sont passés à travers une fonction Softmax pour calculer une distribution de probabilité sur le vocabulaire:

Comprendre un sac continu de mots (CBOW)

  • Mot cible prévu : La première cause est qu'à la sortie Softmax, l'algorithme définit le mot cible comme le mot avec la probabilité la plus élevée.

Fonction de perte

  • La perte de l'entropie croisée est utilisée pour comparer la distribution de probabilité prévue avec le mot cible réel (vérité au sol).
  • La perte est minimisée à l'aide de techniques d'optimisation comme la descente de gradient stochastique (SGD) ou ses variantes.

Exemple de CBOW en action

Saisir :
Phrase: ?J'adore l'apprentissage automatique? , Target Word: ?Machine? , Mots de contexte: [?I?, ?Love?, ?Learning?] .

Encodage à un hot :
Vocabulaire: [?I?, ?Love?, ?Machine?, ?Learning?, ?AI?]

  • Vecteurs à un hot:
    • ?I?: [1,0,0,0,0] [1, 0, 0, 0, 0] [1,0,0,0,0]
    • ?Amour?: [0,1,0,0,0] [0, 1, 0, 0, 0] [0,1,0,0,0]
    • ?Apprentissage?: [0,0,0,1,0] [0, 0, 0, 1, 0] [0,0,0,1,0]

Couche d'intégration :

  • Dimension d'intégration: D = 3.
  • Matrice d'intégration W:

Comprendre un sac continu de mots (CBOW)

Embeddings:

  • ?I?: [0,1,0.2,0.3]
  • ?Amour?: [0,4,0,5,0,6]
  • ?Apprentissage?: [0,2,0,3,0,4]

Agrégation :

  • En moyenne les intérêts:

Comprendre un sac continu de mots (CBOW)

Couche de sortie :

  • Calculez les logits, appliquez Softmax et prédisez le mot cible.

Diagramme de l'architecture CBOW

 Couche d'entrée: ["I", "Love", "Learning"]
    -> Encodage à un hot
    -> Couche d'intégration
        -> des incorporations denses
        -> vecteur contextuel agrégé
        -> calque entièrement connecté softmax
Sortie: mot prévu "machine"

Codage cbow à partir de zéro (avec des exemples python)

Nous allons maintenant parcourir la mise en ?uvre du modèle CBOW à partir de zéro dans Python.

Préparer des données pour CBOW

La première pointe consiste à transformer le texte en jetons, des mots générés en paires de cibles de contexte avec le contexte comme les mots contenant le mot cible.

 Corpus = "Le renard brun rapide saute par-dessus le chien paresseux"
corpus = corpus.lower (). Split () # tokenisation et conversion minuscule

# Définir la taille de la fenêtre de contexte
C = 2
context_target_pairs = []

# Générer des paires de cibles contextuelles
pour I à portée (C, Len (Corpus) - C):
    context = corpus [i - c: i] corpus [i 1: i c 1]
    Target = corpus [i]
    context_target_pairs.append ((contexte, cible))

print ("Paies de contexte-cible:", context_target_pairs)

Sortir:

 Context-Target Pairs: [(['the', 'quick', 'fox', 'jumps'], 'brown'), (['quick', 'brown', 'jumps', 'over'], 'fox'), (['brown', 'fox', 'over', 'the'], 'jumps'), (['fox', 'jumps', 'the', 'lazy'], 'over'), (['jumps', ?Over?, ?paresseux?, ?chien?], ?le?)]

Créer le mot dictionnaire

Nous construisons un vocabulaire (un ensemble unique de mots), puis cartons chaque mot à un index unique et vice versa pour des recherches efficaces pendant la formation.

 # Créer un vocabulaire et cartographier chaque mot à un index
vocab = set (corpus)
word_to_index = {word: idx pour idx, word in énumérer (vocab)}
index_to_word = {idx: word pour word, idx dans word_to_index.items ()}

Print ("Word à Index Dictionary:", word_to_index)

Sortir:

 Word to index Dictionary: {'Brown': 0, 'Dog': 1, 'Quick': 2, 'Jump': 3, 'Fox': 4, 'Over': 5, 'The': 6, 'Lazy': 7}

Exemple d'encodage à un chaud

Le codage d'un hot fonctionne en transformant chaque mot dans le système de formation de mots en un vecteur, où l'indicateur du mot est ?1? tandis que le reste des lieux prend ?0?, pour des raisons qui seront bient?t claires.

 def one_hot_encode (word, word_to_index):
    one_hot = np.zeros (len (word_to_index)))
    one_hot [word_to_index [word]] = 1
    retourner un_hot

# Exemple utilisation pour un mot "rapide"
context_one_hot = [one_hot_encode (word, word_to_index) pour word dans ['the', 'Quick']]
print ("Encodage à un hot pour 'Quick':", context_one_hot [1])

Sortir:

 Encodage à un hot pour ?Quick?: [0. 0. 1. 0. 0. 0. 0. 0.]

Construire le modèle CBOW à partir de zéro

Dans cette étape, nous créons un réseau neuronal de base avec deux couches: un pour les incorporations de mots et une autre pour calculer la sortie en fonction des mots de contexte, en moyenne le contexte et en le faisant passer par le réseau.

 Classe CBOW:
    def __init __ (self, vocab_size, embedding_dim):
        # Initialiser aléatoirement des poids pour les couches d'incorporation et de sortie
        self.w1 = np.random.randn (vocab_size, embedding_dim)
        self.w2 = np.random.randn (embedding_dim, vocab_size)
        
    Def en avant (self, context_words):
        # Calculez la couche cachée (moyenne des mots de contexte)
        h = np.mean (context_words, axe = 0)
        # Calculez la couche de sortie (SoftMax Probabilités)
        sortie = np.dot (h, self.w2)
        Sortie de retour
    
    Def Backward (self, context_words, cible_word, apprentissage_rate = 0,01):
        # Passe avant
        h = np.mean (context_words, axe = 0)
        sortie = np.dot (h, self.w2)
        
        # Calculer l'erreur et les gradients
        error = cible_word - sortie
        self.w2 = apprentissage_rate * np.outer (h, erreur)
        self.w1 = apprentissage_rate * np.outer (context_words, erreur)

# Exemple de création d'un objet CBow
vocab_size = len (word_to_index)
Embedding_dim = 5 # Supposons des intégres à 5 dimensions

cbow_model = cbow (vocab_size, embedding_dim)

# Utilisation de mots de contexte aléatoire et de cible (comme exemple)
context_words = [one_hot_encode (word, word_to_index) pour word dans ['le', 'rapide', 'Fox', 'saute']]]
context_words = np.array (context_words)
context_words = np.mean (context_words, axe = 0) # Moyens de contexte Mots
Target_word = one_hot_encode ('Brown', word_to_index)

# Passage avant le modèle CBOW
output = cbow_model.forward (context_words)
Imprimer ("Sortie de CBow Forward Pass:", sortie)

Sortir:

 Sortie de CBOW Pass Forward: [[-0.20435729 -0.23851241 -0.08105261 -0.14251447 0.20442154 0,14336586
  -0,06523201 0,0255063]
 [-0.0192184 -0.12958821 0.1019369 0.11101922 -0.17773069 -0.02340574
  -0.22222151 -0.23863179]
 [0.21221977 -0.15263454 -0.015248 0,27618767 0,02959409 0,2177961
   0.16619577 -0.20560026]
 [0,05354038 0,06903295 0,0592706 -0.13509918 -0.00439649 0,18007843
   0,1611929 0,2449023]
 [0.01092826 0.19643582 -0.07430934 -0.16443165 -0.01094085 -0.27452367
  -0.13747784 0,31185284]]

Utilisation de TensorFlow pour implémenter CBOW

TensorFlow simplifie le processus en définissant un réseau neuronal qui utilise une couche d'intégration pour apprendre des représentations de mots et une couche dense pour la sortie, en utilisant des mots contextuels pour prédire un mot cible.

 Importer TensorFlow comme TF

# Définissez un modèle CBOW simple à l'aide de TensorFlow
classe CBowModel (tf.keras.model):
    def __init __ (self, vocab_size, embedding_dim):
        super (cbowmodel, self) .__ init __ ()
        self.embeddings = tf.keras.layers.embedding (input_dim = vocab_size, output_dim = embedding_dim)
        self.output_layer = tf.keras.layers.dense (vocab_size, activation = 'softmax')
    
    Def Call (self, context_words):
        embedded_context = self.embeddings (context_words)
        context_avg = tf.reduce_mean (embedded_context, axe = 1)
        output = self.output_layer (context_avg)
        Sortie de retour

# Exemple d'utilisation
modèle = cbowmodel (vocab_size = 8, embedding_dim = 5)
context_input = np.random.randint (0, 8, taille = (1, 4)) # entrée de contexte aléatoire
context_input = tf.convert_to_tensor (context_input, dtype = tf.int32)

# Passe avant
Output = modèle (context_input)
Print ("Sortie de TensorFlow CBOW Modèle:", Output.Numpy ())

Sortir:

 Sortie du modèle CBOW TensorFlow: [[0,12362909 0,12616573 0,12758036 0,12601459 0,12477358 0,1237749
  0.12319998 0.12486169]]

Utilisation de Gensim pour CBOW

Gensim propose une implémentation prête à l'emploi de CBOW dans la fonction word2vec () où l'on n'a pas besoin de travailler lors de la formation, car Gensim entra?ne des intégrations de mots dans un corpus de texte.

 importer gensim
de gensim.models importe word2vec

# Préparer les données (liste des listes de mots)
Corpus = [["le", "rapide", "Brown", "Fox"], ["sauts", "Over", "le", "paresseux", "chien"]]

# Entra?ner le modèle Word2Vec à l'aide de CBOW
modèle = word2vec (corpus, vector_size = 5, window = 2, min_count = 1, sg = 0)

# Obtenez la représentation vectorielle d'un mot
vector = modèle.wv ['Fox']
Print ("Représentation vectorielle de 'Fox':", Vector)

Sortir:

 Représentation vectorielle de 'Fox': [-0.06810732 -0.01892803 0.11537147 -0.15043275 -0.07872207]

Avantages du sac continu de mots

Nous allons maintenant explorer les avantages du sac continu de mots:

  • Apprentissage efficace des représentations des mots : CBOW apprend efficacement les représentations de vecteur denses pour les mots en utilisant des mots contextuels. Il en résulte des vecteurs à moindre dimension par rapport au codage traditionnel à un hot, qui peut être co?teux en calcul.
  • Capture les relations sémantiques : CBOW capture les relations sémantiques entre les mots en fonction de leur contexte dans un grand corpus. Cela permet au modèle d'apprendre des similitudes de mots, des synonymes et d'autres nuances contextuelles, qui sont utiles dans des taches telles que la recherche d'informations et l'analyse des sentiments.
  • évolutivité : Le modèle CBOW est très évolutif et peut traiter efficacement de grands ensembles de données, ce qui le rend bien adapté aux applications avec de grandes quantités de données texte, telles que les moteurs de recherche et les plateformes de médias sociaux.
  • Flexibilité contextuelle : CBOW peut gérer des quantités variables de contexte (c'est-à-dire le nombre de mots environnants considérés), offrant une flexibilité dans la quantité de contexte requise pour apprendre les représentations des mots.
  • Performances améliorées dans les taches NLP : les incorporations de mots de CBOW améliorent les performances des taches NLP en aval, telles que la classification du texte, la reconnaissance des entités nommées et la traduction automatique, en fournissant des représentations de fonctionnalités de haute qualité.

Limites du sac continu de mots

Discutons maintenant des limites de CBOW:

  • Sensibilité à la taille de la fenêtre de contexte : Les performances de CBOW dépendent fortement de la taille de la fenêtre de contexte. Une petite fenêtre peut entra?ner la capture de relations locales, tandis qu'une grande fenêtre peut brouiller le caractère distinctif des mots. Trouver la taille optimale du contexte peut être difficile et dépendant des taches.
  • Manque de sensibilité de l'ordre des mots : CBOW ne tient pas compte de l'ordre des mots dans le contexte, ce qui signifie qu'il ne capture pas la nature séquentielle du langage. Cette limitation peut être problématique pour les taches qui nécessitent une compréhension approfondie de l'ordre des mots, comme l'analyse syntaxique et la modélisation du langage .
  • Difficulty with Rare Words : CBOW struggles to generate meaningful embeddings for rare or out-of-vocabulary (OOV) words. Le modèle s'appuie sur le contexte, mais les données clairsemées pour les mots peu fréquents peuvent conduire à de mauvaises représentations vectorielles.
  • Limité à la compréhension contextuelle peu profonde : Bien que CBOW capture les significations des mots basées sur des mots environnants, il a des capacités limitées de compréhension des phénomènes linguistiques plus complexes, tels que des dépendances à longue portée, l'ironie ou le sarcasme, qui peut nécessiter des modèles plus sophistiqués comme les transformateurs.
  • L'incapacité à gérer bien la polysémie : les mots avec plusieurs significations (polysémie) peuvent être problématiques pour CBOW. étant donné que le modèle génère une seule intégration pour chaque mot, il peut ne pas capturer les différentes significations qu'un mot peut avoir dans différents contextes, contrairement aux modèles plus avancés comme Bert ou Elmo .

Conclusion

Le modèle continu de mots (CBOW) s'est avéré être une approche efficace et intuitive pour générer des incorporations de mots en tirant parti du contexte environnant. Grace à son architecture simple mais efficace, CBOW comble l'écart entre le texte brut et les représentations vectorielles significatives, permettant un large éventail d'applications NLP. En comprenant le mécanisme de travail de CBOW, ses forces et ses limites, nous gagnons plus approfondie de l'évolution des techniques de PNL. Avec son r?le fondamental dans la génération d'intégration, CBOW continue d'être un tremplin pour explorer des modèles de langage avancé.

Principaux à retenir

  • CBOW prédit un mot cible utilisant son contexte environnant, ce qui le rend efficace et simple.
  • Il fonctionne bien pour des mots fréquents, offrant une efficacité de calcul.
  • Les intérêts appris par CBOW capturent les relations sémantiques et syntaxiques.
  • CBOW est fondamental pour comprendre les techniques d'intégration des mots modernes.
  • Les applications pratiques comprennent l'analyse des sentiments, la recherche sémantique et les recommandations de texte.

Questions fréquemment posées

Q1: Quelle est la différence entre CBow et Skip-Gram?

R: CBOW prédit un mot cible en utilisant des mots contextuels, tandis que Skip-Gram prédit des mots contextuels en utilisant le mot cible.

Q2: Pourquoi CBOW est-il plus rapide en calcul que Skip-Gram?

R: CBOW traite simultanément plusieurs mots de contexte, tandis que Skip-Gram évalue chaque mot de contexte indépendamment.

Q3: CBOW peut-il gérer efficacement les mots rares?

R: Non, Skip-Gram est généralement meilleur dans l'apprentissage des représentations pour des mots rares.

Q4: Quel est le r?le de la couche d'intégration dans CBOW?

R: La couche d'intégration transforme des vecteurs clairsemés à un hot en représentations denses, capturant la sémantique de mots.

Q5: CBOW est-il toujours pertinent aujourd'hui?

R: Oui, alors que des modèles plus récents comme Bert existent, CBOW reste un concept fondamental dans les incorporations de mots.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefa?on, veuillez contacter admin@php.cn

Outils d'IA chauds

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel PHP
1488
72
Kimi K2: le modèle agentique open source le plus puissant Kimi K2: le modèle agentique open source le plus puissant Jul 12, 2025 am 09:16 AM

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

Grok 4 vs Claude 4: Quel est le meilleur? Grok 4 vs Claude 4: Quel est le meilleur? Jul 12, 2025 am 09:37 AM

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui 10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui Jul 16, 2025 am 11:12 AM

Mais nous n'aurons probablement pas à attendre même 10 ans pour en voir un. En fait, ce qui pourrait être considéré comme la première vague de machines vraiment utiles, de type humain, est déjà là. Les dernières années ont vu un certain nombre de prototypes et de modèles de production sortant de T

L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide Jul 12, 2025 am 09:33 AM

Jusqu'à l'année précédente, l'ingénierie rapide était considérée comme une compétence cruciale pour interagir avec les modèles de langage grand (LLM). Récemment, cependant, les LLM ont considérablement progressé dans leurs capacités de raisonnement et de compréhension. Naturellement, nos attentes

6 taches manus ai peut faire en quelques minutes 6 taches manus ai peut faire en quelques minutes Jul 06, 2025 am 09:29 AM

Je suis s?r que vous devez conna?tre l'agent général de l'IA, Manus. Il a été lancé il y a quelques mois, et au cours des mois, ils ont ajouté plusieurs nouvelles fonctionnalités à leur système. Maintenant, vous pouvez générer des vidéos, créer des sites Web et faire beaucoup de MO

L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours Jul 09, 2025 am 11:17 AM

Construit sur le moteur de profondeur neuronale propriétaire de Leia, l'application traite des images fixes et ajoute de la profondeur naturelle avec un mouvement simulé - comme les casseroles, les zooms et les effets de parallaxe - pour créer de courts bobines vidéo qui donnent l'impression de pénétrer dans le SCE

Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Jul 09, 2025 am 11:16 AM

Une nouvelle étude de chercheurs du King’s College de Londres et de l’Université d’Oxford partage les résultats de ce qui s'est passé lorsque Openai, Google et Anthropic ont été jetés ensemble dans un concours fardé basé sur le dilemme du prisonnier itéré. Ce n'était pas

Quels sont les 7 types d'agents d'IA? Quels sont les 7 types d'agents d'IA? Jul 11, 2025 am 11:08 AM

Imaginez quelque chose de sophistiqué, comme un moteur d'IA prêt à donner des commentaires détaillés sur une nouvelle collection de vêtements de Milan, ou une analyse de marché automatique pour une entreprise opérant dans le monde entier, ou des systèmes intelligents gérant une grande flotte de véhicules.

See all articles