亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

目次
學(xué)習(xí)目標(biāo)
目次
ジェミニの埋め込みとは何ですか?
Gemini Embeddingの主要な機(jī)能
ジェミニ埋め込みモデルアーキテクチャ
トレーニング戦略
他の多言語(yǔ)埋め込みモデルとの比較
Gemini Embeddingを使用した検索とJina Ai Embeddingおよび多言語(yǔ)-E5-Largeと比較
埋め込まれた検索出力の比較
説明する
結(jié)論は
主な利益
よくある質(zhì)問(wèn)
ホームページ テクノロジー周辺機(jī)器 AI ジェミニ埋め込みと多言語(yǔ)E5-large&jinaの比較

ジェミニ埋め込みと多言語(yǔ)E5-large&jinaの比較

Mar 20, 2025 pm 03:02 PM

Gemini Embedding:Google Gemini AIフレームワークの下にある多言語(yǔ)テキスト埋め込みモデル

単語(yǔ)の埋め込みは、機(jī)械翻訳、質(zhì)問(wèn)と回答、情報(bào)の取得など、ヒンディー語(yǔ)の自然言語(yǔ)処理(NLP)タスクに不可欠です。これらの埋め込みは、単語(yǔ)のセマンティックプロパティをキャプチャし、より正確でコンテキスト指向のNLPアプリケーションを可能にします。多數(shù)のヒンディー語(yǔ)のスピーカーとヒンディー語(yǔ)の數(shù)が増えていることを考えると、これらの言語(yǔ)のNLPパフォーマンスを改善するには、高品質(zhì)の埋め込みが重要です。カスタマイズされた埋め込みは、インドの言語(yǔ)ファミリーのユニークな言語(yǔ)特性とリソースの制限を具體的に解決できます。新しくリリースされたジェミニ埋め込みモデルは、多言語(yǔ)のテキスト埋め込みの大幅な進(jìn)歩を表しており、Googleの強(qiáng)力なGemini AIフレームワークを活用して、100を超える言語(yǔ)で最先端のパフォーマンスを?qū)g現(xiàn)しています。

Gemini Embeddingモデルは、分類、検索、セマンティック検索などのタスクに優(yōu)れており、効率と精度が向上します。 Gemini Embeddingは、より大きな入力スケールと高次元の出力をサポートすることにより、より豊富なテキスト表現(xiàn)を提供し、さまざまなアプリケーションで広く使用できるようにします。

學(xué)習(xí)目標(biāo)

  • Gemini EmbeddingとGemini LLMとの統(tǒng)合について學(xué)びます。
  • Gemini Embedを使用してヒンディー語(yǔ)のドキュメントを取得するための実用的なチュートリアル。
  • Jina AIの埋め込みおよび多言語(yǔ)-E5-Largeとの比較分析。
  • 多言語(yǔ)のテキスト検索機(jī)能とアプリケーションに関する洞察。

*この記事は、***データサイエンスブログマラソンの一部として公開されています。 ***

目次

  • ジェミニの埋め込みとは何ですか?
  • Gemini Embeddingの主要な機(jī)能
  • ジェミニ埋め込みモデルアーキテクチャ
  • 他の多言語(yǔ)埋め込みモデルとの比較
  • Gemini Embeddingを使用した検索とJina Ai Embeddingおよび多言語(yǔ)-E5-Largeと比較
    • ステップ1。必要なライブラリをインストールします
    • ステップ2。データをロードします
    • ステップ3。データをブロックします
    • ステップ4。データをベクトルデータベースに保存します
    • ステップ5。データベースをクエリします
    • ステップ6。JinaAI埋め込みと比較します
  • 埋め込まれた検索出力の比較
    • 説明する
  • 結(jié)論は
  • よくある質(zhì)問(wèn)

ジェミニの埋め込みとは何ですか?

2025年3月、GoogleはGemini APIで使用できる新しい実験的なGemini Embedding Text Model(Gemini-Embedding-Exp-03-07)をリリースしました。

高度な埋め込みモデルは、ジェミニモデルから生じていました。これは、言語(yǔ)と微妙なコンテキストのニュアンスについてのジェミニの深い理解を継承すると言われており、さまざまなアプリケーションで広く使用できるようにします。 MTEB多言語(yǔ)ランキングで最初にランクされています。

ジェミニ埋め込みと多言語(yǔ)E5-large&jinaの比較

Gemini Embeddingは、同様のセマンティクスを持つテキスト入力が互いに近いベクトル空間のベクトルにマッピングされる密なベクトルとしてテキストを表します?,F(xiàn)在、100を超える言語(yǔ)をサポートしており、その埋め込みは検索や分類などのさまざまなタスクに使用できます。

Gemini Embeddingの主要な機(jī)能

  • 強(qiáng)力な多言語(yǔ)機(jī)能:このモデルは、英語(yǔ)などの高リソース言語(yǔ)だけでなく、アッサムやマケドニアなどの低リソース言語(yǔ)でも、100を超える言語(yǔ)で優(yōu)れたパフォーマンスを示しています。
  • 最大8000個(gè)の入力タグの処理:この強(qiáng)力な機(jī)能により、モデルは切り捨てなしで長(zhǎng)いドキュメントまたは複雑なクエリをシームレスに処理できるようになり、多くの既存の組み込みモデルを超える方法でコンテキストと意味を維持できます。
  • 3K寸法の出力寸法:このモデルは、最大3072までの埋め込みディメンションを生成し、タスク固有の最適化のために768や1536などのサブ次元性をサポートします。
  • 印象的なパフォーマンス:ジェミニ埋め込みは、平均タスクスコアが68.32で、大規(guī)模なテキストエンミングベンチマーク(MTEB)で最初にランク付けされ、最も近い競(jìng)合他社を大幅に超えています。

ジェミニ埋め込みモデルアーキテクチャ

ジェミニ埋め込みと多言語(yǔ)E5-large&jinaの比較

Gemini Embeddingのコアは、変圧器アーキテクチャに基づいており、Gemini LLMから初期化されています。この基礎(chǔ)は、モデルの言語(yǔ)構(gòu)造とセマンティクスの深い理解を提供します。このモデルは、雙方向の注意メカニズムを使用して入力シーケンスを処理して、埋め込みを生成するときに単語(yǔ)またはフレーズの完全なコンテキストを考慮することができます。

  1. 入力シーケンスtはM(雙方向の注意を伴う変圧器、ジェミニから初期化)で処理され、マーカー埋め込みシーケンスが得られます。
  2. 入力內(nèi)のすべての情報(bào)を表す単一の埋め込みを生成するには、プーリング関數(shù)が適用されます。
  3. 最後に、線形投影が適用され、埋め込みをターゲットディメンションにスケーリングし、最終的な出力埋め込みになります。

損失関數(shù):Gemini Embeddingモデルは、バッチ內(nèi)の否定的な例でノイズ比較推定(NCE)損失を使用してトレーニングされます。正確な損失は、トレーニングフェーズによってわずかに異なります。一般的に、トレーニングの例には、クエリ、正のターゲット、および(オプションの)難しいターゲットが含まれます。

トレーニング戦略

  1. 事前調(diào)整:この段階では、モデルはクエリターゲットペアを含む大規(guī)模な多様なデータセットでトレーニングされています。この露出は、タスクをコーディングするための大規(guī)模な言語(yǔ)モデルのパラメーターを調(diào)整し、適応性の基礎(chǔ)を築きます。
  2. 微調(diào)整:第2フェーズでは、モデルは、クエリポジティブディフフィックネガティブな例のトリプルを含むタスク固有のデータセットを使用します。このプロセスでは、より小さなバッチサイズと適切にキュレーションされたデータセットを使用して、ターゲットタスクのパフォーマンスを向上させます。

また読む:gemini埋め込み:ジェミニからのユニバーサル埋め込み

他の多言語(yǔ)埋め込みモデルとの比較

ヒンディー語(yǔ)のドキュメントの検索を最新のジェミニ埋め込みと比較し、ジーナAIの埋め込みおよび多言語(yǔ)E5-large埋め込みと比較します。次の表に示すように、Gemini EmbeddingとJina Ai Embeddingは、最大數(shù)のタグの點(diǎn)で高く、モデルが長(zhǎng)いドキュメントまたは複雑なクエリを処理できるようにします。さらに、次の表に示すように、ジェミニの埋め込みは、単語(yǔ)間のより詳細(xì)で微妙なセマンティックな関係をキャプチャするより高い埋め込み次元を持ち、モデルが複雑な言語(yǔ)パターンと意味の微妙な違いを表すことができます。

パラメーターの數(shù) 埋め込まれた寸法 最大マーク 言語(yǔ)數(shù) 人形の埋め込み
Gemini-Embedding-Exp-03-07 未知 3072 8192 100 2048、1024、512、256、128の寸法など、さまざまなサイズへの埋め込みの切り捨てをサポートしています。
Jinaai/Jina-embeddings-V3 572百萬(wàn) 1024 8194 100 柔軟な埋め込みサイズ(32、64、128、256、512、768、1024)をサポートし、切り捨てられた埋め込みをアプリケーションに適合させることができます
多言語(yǔ)-E5-Large-Instruct 5億6,000萬(wàn) 1024 514 94 Na

Gemini Embeddingを使用した検索とJina Ai Embeddingおよび多言語(yǔ)-E5-Largeと比較

以下の実用的なチュートリアルでは、ヒンディー語(yǔ)のドキュメントの検索と新しくリリースされた最新のジェミニ埋め込みと比較してから、Jina ai埋め込みおよび多言語(yǔ)E5-large埋め込みと比較します。

ステップ1。必要なライブラリをインストールします

<code>!pip install langchain-community !pip install chromadb</code>

ステップ2。データをロードします

Webサイトのヒンディー語(yǔ)データを使用して、ヒンディー語(yǔ)の検索でのGemini Embeddingのパフォーマンスを評(píng)価しました。

 <code>from langchain_community.document_loaders import WebBaseLoader loader = WebBaseLoader("https://ckbirlahospitals.com/rbh/blog/pregnancy-early-symptoms-in-hindi") data = loader.load()</code>

ステップ3。データをブロックします

次のコードでは、recursiveCharacterTextSplitterを使用して、大きなテキストドキュメントを重複せずに500文字のチャンクに分割します。次に、この分割をDataVariableに適用し、結(jié)果をAll_Splitsに保存します。 gemini埋め込みAPIのレート制限により、10個(gè)のスプリットのみを使用します。

 <code>from langchain_text_splitters import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=0) all_splits = text_splitter.split_documents(data) all_splits = all_splits[:10]</code>

ステップ4。データをベクトルデータベースに保存します

最初に、「GeminiembedingFunction」というクラスを作成します。これは、APIの埋め込みを照會(huì)し、入力クエリの埋め込み値を返すのに役立ちます。次に、「create_chroma_db」という関數(shù)を作成して、データと埋め込みを保存するChromaDBにコレクションを作成します。

 <code>import chromadb from chromadb import Documents, EmbeddingFunction, Embeddings class GeminiEmbeddingFunction(EmbeddingFunction): def __call__(self, input: Documents) -> Embeddings: title = "Custom query" return client.models.embed_content( model="gemini-embedding-exp-03-07", contents=input).embeddings[0].values def create_chroma_db(documents, name): chroma_client = chromadb.Client() db = chroma_client.create_collection(name=name, embedding_function=GeminiEmbeddingFunction()) for i, d in enumerate(documents): db.add( documents=d.page_content, ids=str(i) ) return db db = create_chroma_db(all_splits, "datab")</code>

ステップ5。データベースをクエリします

<code>def get_relevant_passage(query, db): passage = db.query(query_texts=[query], n_results=1)['documents'][0][0] return passage passage = get_relevant_passage("???? ?????????? ????? ?? ?????? ??????", db) print(passage)</code>

ステップ6。JinaAI埋め込みと比較します

次のコードでは、ハグするフェイストランスモデルを使用して、カスタム埋め込み関數(shù)を定義し、テキスト入力を処理して埋め込みを生成する方法を定義しています。

  1. 変圧器からのオートトケン剤とオートメーターは、前処理されたモデル(Jinaai/Jina-embeddings-V3)をロードし、ChromaDBから埋め込み機(jī)能をインポートして、カスタム埋め込みを作成するために使用されます。
  2. 平均的な関數(shù):この関數(shù)は、モデルでプーリング操作を?qū)g行することにより、モデルの隠された狀態(tài)を集約し、注意マスクを取得しながらシーケンスの長(zhǎng)さを平均します(塗りつぶしマークを無(wú)視します)。
  3. CustomHuggingfaceクラス:テキストをトークン化し、モデルにフィードし、平均的な_pool関數(shù)を使用して埋め込みを計(jì)算します。結(jié)果は埋め込みリストとして返されます。
 <code>from transformers import AutoTokenizer, AutoModel from chromadb import EmbeddingFunction tokenizer = AutoTokenizer.from_pretrained('jinaai/jina-embeddings-v3') model = AutoModel.from_pretrained('jinaai/jina-embeddings-v3') # the model returns many hidden states per document so we must aggregate them def average_pool(last_hidden_states, attention_mask): last_hidden = last_hidden_states.masked_fill(~attention_mask[...,None].bool(), 0.0) return last_hidden.sum(dim=1) / attention_mask.sum(dim=1)[...,None] class CustomHuggingFace(EmbeddingFunction): def __call__(self, texts): queries = [f'query: {text}' for text in texts] batch_dict = tokenizer(texts, max_length=512, padding=True, truncation=True, return_tensors='pt') outputs = model(**batch_dict) embeddings = average_pool(outputs.last_hidden_state, batch_dict['attention_mask']) return embeddings.tolist()</code>

クエリ

<code>def get_relevant_passage(query, db): passage = db.query(query_texts=[query], n_results=1)['documents'][0][0] return passage passage = get_relevant_passage("???? ?????????? ????? ?? ?????? ??????", db) print(passage)</code>

多言語(yǔ)-E5-Large Embedを選択するために、トークン剤とモデルを「intfloat/multilingual-e5-large-instruct」に置き換えるだけです。

埋め込まれた検索出力の比較

質(zhì)問(wèn)番號(hào) クエリ ジェミニ埋め込み Jinaai/Jina-embeddings-V3 intfloat/multhingual-e5-rarge-intruct
1 ??????です。 妊娠の初期癥狀についてもっと知りたい場(chǎng)合は、このブログ投稿はあなたにぴったりです。妊娠検査はいつ必要ですか? -間違い 妊娠の初期癥狀についてもっと知りたい場(chǎng)合は、このブログ投稿はあなたにぴったりです。妊娠検査はいつ必要ですか? -間違い 妊娠の初期癥狀についてもっと知りたい場(chǎng)合は、このブログ投稿はあなたにぴったりです。妊娠検査はいつ必要ですか? -間違い
2 妊娠??kuchシンボル 妊娠の初期癥狀は何ですか?妊娠中、女性では多くのホルモンの変化が起こります。妊娠の初期の癥狀には、吐き気、嘔吐、頻繁な排尿、疲労が含まれます。これについては、このブログ投稿で説明します。 -正しい 妊娠の兆候:早期癥狀に関する完全な情報(bào)!ホームクイックコンサルテーション患者ログイン當(dāng)社はお問(wèn)い合わせください:08062136530緊急電話:07340054470メインメニューを開いて患者と訪問(wèn)者にサービスを提供する國(guó)際患者にサービスを提供します。産婦人科|妊娠の初期癥狀は何ですか?妊娠妊娠の早期癥狀 -エラー 妊娠の初期癥狀は何ですか?妊娠中、女性では多くのホルモンの変化が起こります。妊娠の初期の癥狀には、吐き気、嘔吐、頻繁な排尿、疲労が含まれます。これについては、このブログ投稿で説明します。 -正しい
3 ??婦するまみ?する?????する?????する??する????????なり??? 妊娠の最初の數(shù)日間、卵と精子が受精し、出血や腹痛などの癥狀を引き起こします。この期間中、健康な妊娠のために、女性は抗生物質(zhì)を服用することを避けることをお?jiǎng)幛幛筏蓼?。これは母親や赤ちゃんにとって危険である可能性があるためです。妊娠の早期癥狀は、常に月経や嘔吐が遅れるとは限りません。さらに、他の癥狀が発生する可能性があり、 -正しいなどの特別な注意が必要です 妊娠の最初の數(shù)日間、卵と精子が受精し、出血や腹痛などの癥狀を引き起こします。この期間中、健康な妊娠のために、女性は抗生物質(zhì)を服用することを避けることをお?jiǎng)幛幛筏蓼?。これは母親や赤ちゃんにとって危険である可能性があるためです。妊娠の早期癥狀は、常に月経や嘔吐が遅れるとは限りません。さらに、他の癥狀が発生する可能性があり、 -正しいなどの特別な注意が必要です すべての女性が知っておくべきこと。妊娠関連の質(zhì)問(wèn)については、婦人科醫(yī)に連絡(luò)してすべての合併癥を排除することをお?jiǎng)幛幛筏蓼埂?-間違い
4 ????なり??するするげ?#??#€??????なりするか? 妊娠の最初の數(shù)日間、卵と精子が受精し、出血や腹痛などの癥狀を引き起こします。この期間中、健康な妊娠のために、女性は抗生物質(zhì)を服用することを避けることをお?jiǎng)幛幛筏蓼?。これは母親や赤ちゃんにとって危険である可能性があるためです。妊娠の早期癥狀は、常に月経や嘔吐が遅れるとは限りません。さらに、他の癥狀が発生する可能性があり、 -正しいなどの特別な注意が必要です 妊娠の最初の數(shù)日間、卵と精子が受精し、出血や腹痛などの癥狀を引き起こします。この期間中、健康な妊娠のために、女性は抗生物質(zhì)を服用することを避けることをお?jiǎng)幛幛筏蓼?。これは母親や赤ちゃんにとって危険である可能性があるためです。妊娠の早期癥狀は、常に月経や嘔吐が遅れるとは限りません。さらに、他の癥狀が発生する可能性があり、 -正しいなどの特別な注意が必要です すべての女性が知っておくべきこと。妊娠関連の質(zhì)問(wèn)については、婦人科醫(yī)に連絡(luò)してすべての合併癥を排除することをお?jiǎng)幛幛筏蓼埂?-間違い
5 ??婦??現(xiàn)。 遅延月経:これは妊娠の最も早く最も一般的な癥狀です。この癥狀のみに基づいて妊娠の確認(rèn)は完全に正しいものではありません。ただし、月経が1週間以上遅れている場(chǎng)合は、妊娠検査をお?jiǎng)幛幛筏蓼埂H榉郡螇浠喝焉镏?、乳房は腫れ、柔らかくなり、色が変わります。それは主に乳首(areola)のサイズと色の変化です。 -正しい これを念頭に置いて、妊娠を確認(rèn)する方法は?妊娠の最初の月の世話をする方法は?妊娠検査方法は?妊娠中はどうすればいいですか?妊娠中は性別が発生する必要がありますか?妊娠中はどんな果物を食べるべきですか?妊娠中はどれくらいの水を飲むべきですか?母親になる喜びは、世界で最大の幸福です。妊娠中、女性の身體的および心理的変化には多くの変化があります。これらの変化を妊娠の早期癥狀と呼びます -エラー 妊娠の初期癥狀は何ですか?妊娠中、女性では多くのホルモンの変化が起こります。妊娠の初期の癥狀には、吐き気、嘔吐、頻繁な排尿、疲労が含まれます。これについては、このブログ投稿で説明します。 -正しい
6 ??左で?????? 妊娠の兆候:早期癥狀に関する完全な情報(bào)!ホームクイックコンサルテーション患者ログイン當(dāng)社はお問(wèn)い合わせください:08062136530緊急電話:07340054470メインメニューを開いて患者と訪問(wèn)者にサービスを提供する國(guó)際患者にサービスを提供します。産婦人科|妊娠の初期癥狀は何ですか?妊娠妊娠の早期癥狀 -エラー これを念頭に置いて、妊娠を確認(rèn)する方法は?妊娠の最初の月の世話をする方法は?妊娠検査方法は?妊娠中はどうすればいいですか?妊娠中は性別が発生する必要がありますか?妊娠中はどんな果物を食べるべきですか?妊娠中はどれくらいの水を飲むべきですか?母親になる喜びは、世界で最大の幸福です。妊娠中、女性の身體的および心理的変化には多くの変化があります。これらの変化を妊娠の早期癥狀と呼びます -エラー 妊娠の初期癥狀は何ですか?妊娠中、女性では多くのホルモンの変化が起こります。妊娠の初期の癥狀には、吐き気、嘔吐、頻繁な排尿、疲労が含まれます。これについては、このブログ投稿で説明します。 - 正しい
7 ?左手 妊娠検査を受けるのに最適な時(shí)期は、月経が少なくとも7日遅れた後です。自宅の妊娠検査ツールを使用して、自宅のHCGレベルを検出できます。妊娠中、このホルモンのレベルは大幅に増加します。注意する必要があることの1つは、早期テストも間違った結(jié)果につながる可能性があるため、期間が遅れてテストがマイナスである場(chǎng)合は、テストする前に少なくとも3日間待つことをお?jiǎng)幛幛筏蓼埂?-正しい これを行う正しい方法もあります。これについては、テストツールマニュアルでも確認(rèn)できます。正確な結(jié)果を得るには、HCGホルモンの正しいレベルを測(cè)定できるため、朝の最初の尿を使用する必要があります。また、妊娠の早期癥狀が発生し、検査結(jié)果が陰性である場(chǎng)合は、すぐに血液検査について醫(yī)師に相談してください。いずれにせよ、質(zhì)問(wèn)がある場(chǎng)合は醫(yī)師に相談する必要があります。 -正しい 妊娠の初期癥狀は何ですか?妊娠中、女性では多くのホルモンの変化が起こります。妊娠の初期の癥狀には、吐き気、嘔吐、頻繁な排尿、疲労が含まれます。これについては、このブログ投稿で説明します。 -間違い

説明する

上記のヒンディー語(yǔ)の出力からわかるように、Gemini Embeddingを使用して、Jina AI EmbeddingとMultilingual-E5-Largeを使用しながら、7つのクエリから5つの正しい出力を取得します。正しい応答は3つしかありません。

これは、MTEBベンチマークに反映されているように、ジェミニの埋め込みはうまく機(jī)能し、他の埋め込みモデルよりもヒンディー語(yǔ)などの多言語(yǔ)を扱うことを示しています。

結(jié)論は

要するに、ジェミニの埋め込みは、特にヒンディー語(yǔ)などのヒンディー語(yǔ)で、多言語(yǔ)NLPの大幅な進(jìn)歩を表しています。強(qiáng)力な多言語(yǔ)機(jī)能、大規(guī)模な入力サイズのサポート、MTEBなどのベンチマークでの優(yōu)れたパフォーマンスにより、Geminiは検索、分類、セマンティック検索などのタスクに優(yōu)れています。実用的な比較を通じて、ジェミニのパフォーマンスは他のモデルよりも優(yōu)れており、より高い精度と効率を提供し、多言語(yǔ)NLPを促進(jìn)するための貴重なツールになります。

主な利益

  • ヒンディー語(yǔ)の単語(yǔ)埋め込みの重要性:高品質(zhì)の埋め込みにより、翻訳、質(zhì)疑応答、検索などのNLPタスクが強(qiáng)化され、言語(yǔ)の課題とリソースギャップの問(wèn)題が解決します。
  • Gemini Embedding Model :GoogleのGemini Embeddingは、低リソース言語(yǔ)を含む100を超える言語(yǔ)をカバーする多言語(yǔ)テキスト処理にAIフレームワークを利用しています。
  • 主な機(jī)能:8000のマーカーと3072次元の埋め込みをサポートし、長(zhǎng)いドキュメントと複雑なクエリの効率的な処理を可能にします。
  • 印象的なパフォーマンス:平均タスクスコアは68.32で、MTEB多言語(yǔ)ランキングで1位にランクされており、多言語(yǔ)NLPでそのパワーを示しています。

この記事に示されているメディアは、Analytics Vidhyaが所有しておらず、著者の裁量で使用できます。

よくある質(zhì)問(wèn)

Q1。ジェミニ埋め込みモデルは何ですか? A:Gemini EmbeddingモデルはGoogleのGemini AIに基づいており、ヒンディー語(yǔ)を含む100を超える言語(yǔ)に一流の多言語(yǔ)テキスト埋め込みを提供します。

Q2。 A:Gemini Embeddingは多言語(yǔ)サポートに優(yōu)れており、8000のマーカーと出力3072寸法を処理し、分類、検索、セマンティック検索の効率を確保できます。

Q3。回答:ジェミニ埋め込みは、アッサムやマケドニアなどの英語(yǔ)や低リソースの言語(yǔ)などの高リソース言語(yǔ)でうまく機(jī)能します。 MTEB多言語(yǔ)のランキングでナンバーワンにランクされており、その強(qiáng)力な多言語(yǔ)機(jī)能を示しています。

Q4。 A:モデルはGemini LLMから初期化され、雙方向の注意を払ったトランスアーキテクチャを使用して、コンテキストと意味をキャプチャする高品質(zhì)のテキスト埋め込みを生成します。

Q5。 A:Gemini Embeddingは、トレーニングのためにバッチ內(nèi)の否定的な例でノイズ比較推定(NCE)損失を使用します。 2つのトレーニングフェーズを通過(guò)します。大規(guī)模なデータセットでの事前調(diào)整とタスク固有のデータセットで、NLPパフォーマンスを改善します。

以上がジェミニ埋め込みと多言語(yǔ)E5-large&jinaの比較の詳細(xì)內(nèi)容です。詳細(xì)については、PHP 中國(guó)語(yǔ) Web サイトの他の関連記事を參照してください。

このウェブサイトの聲明
この記事の內(nèi)容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰屬します。このサイトは、それに相當(dāng)する法的責(zé)任を負(fù)いません。盜作または侵害の疑いのあるコンテンツを見つけた場(chǎng)合は、admin@php.cn までご連絡(luò)ください。

ホットAIツール

Undress AI Tool

Undress AI Tool

脫衣畫像を無(wú)料で

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード寫真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

寫真から衣服を削除するオンライン AI ツール。

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無(wú)料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡(jiǎn)単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無(wú)料のコードエディター

SublimeText3 中國(guó)語(yǔ)版

SublimeText3 中國(guó)語(yǔ)版

中國(guó)語(yǔ)版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強(qiáng)力な PHP 統(tǒng)合開発環(huán)境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Kimi K2:最も強(qiáng)力なオープンソースエージェントモデル Kimi K2:最も強(qiáng)力なオープンソースエージェントモデル Jul 12, 2025 am 09:16 AM

今年初めにゲナイ産業(yè)を混亂させたオープンソースの中國(guó)モデルの洪水を覚えていますか? Deepseekはほとんどの見出しを取りましたが、Kimi K1.5はリストの著名な名前の1つでした。そして、モデルはとてもクールでした。

AGIとAIのスーパーインテリジェンスは、人間の天井の仮定の障壁に急激に衝突するでしょう AGIとAIのスーパーインテリジェンスは、人間の天井の仮定の障壁に急激に衝突するでしょう Jul 04, 2025 am 11:10 AM

それについて話しましょう。 革新的なAIブレークスルーのこの分析は、さまざまなインパクトのあるAIの複雑さの特定と説明など、最新のAIで進(jìn)行中のForbes列のカバレッジの一部です(こちらのリンクを參照)。 アギに向かっています

Grok 4 vs Claude 4:どちらが良いですか? Grok 4 vs Claude 4:どちらが良いですか? Jul 12, 2025 am 09:37 AM

2025年半ばまでに、AIの「武器競(jìng)爭(zhēng)」は熱くなり、Xaiと人類は両方ともフラッグシップモデルであるGrok 4とClaude 4をリリースしました。これら2つのモデルは、設(shè)計(jì)哲學(xué)と展開プラットフォームの反対側(cè)にありますが、

人工知能がすべての人生の歩みをどのように助け、害することができるかについての詳細(xì)な議論 人工知能がすべての人生の歩みをどのように助け、害することができるかについての詳細(xì)な議論 Jul 04, 2025 am 11:11 AM

私たちは議論します:企業(yè)はAIの職務(wù)機(jī)能の委任、AIが産業(yè)と雇用をどのように形成するか、およびビジネスと労働者の働き方を委任します。

今日、今日私たちの間を歩いている10の驚くべきヒューマノイドロボット 今日、今日私たちの間を歩いている10の驚くべきヒューマノイドロボット Jul 16, 2025 am 11:12 AM

しかし、おそらく1つを見るのに10年も待つ必要はありません。実際、本當(dāng)に有用で人間のような機(jī)械の最初の波と考えられるものは、すでにここにあります。 近年、多くのプロトタイプと生産モデルがTから抜け出しています

コンテキストエンジニアリングは&#039; new&#039;迅速なエンジニアリング コンテキストエンジニアリングは&#039; new&#039;迅速なエンジニアリング Jul 12, 2025 am 09:33 AM

前年まで、迅速なエンジニアリングは、大規(guī)模な言語(yǔ)モデル(LLMS)と対話するための重要なスキルと見なされていました。しかし、最近、LLMは推論と理解能力を大幅に進(jìn)めています。當(dāng)然、私たちの期待

Langchain Fitness Coachを作成します:AIパーソナルトレーナー Langchain Fitness Coachを作成します:AIパーソナルトレーナー Jul 05, 2025 am 09:06 AM

多くの個(gè)人が情熱を持ってジムを訪れ、フィットネスの目標(biāo)を達(dá)成するための正しい道にいると信じています。しかし、結(jié)果は、食事の計(jì)畫が不十分であり、方向性の欠如のためにありません。パーソナルトレーナーALを雇う

6タスクManus AIは數(shù)分で行うことができます 6タスクManus AIは數(shù)分で行うことができます Jul 06, 2025 am 09:29 AM

一般的なAIエージェントであるManusについて知っている必要があると確信しています。數(shù)ヶ月前に発売され、數(shù)か月にわたって、彼らはシステムにいくつかの新機(jī)能を追加しました。これで、ビデオを生成したり、Webサイトを作成したり、MOを行うことができます

See all articles