亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

ホームページ テクノロジー周辺機器 AI 新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。

新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。

Jul 25, 2024 am 06:42 AM
AI データセット 言語モデル 大型モデル 理論

新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。

Editor | ScienceAI

質(zhì)問と回答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質(zhì)の QA データ セットは、モデルの微調(diào)整に使用できるだけでなく、大規(guī)模言語モデル (LLM) の機能、特に科學的知識を理解し推論する能力を効果的に評価することもできます。

現(xiàn)在、醫(yī)學、化學、生物學、その他の分野をカバーする多くの科學 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠點があります。

まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質(zhì)問であり、評価は簡単ですが、モデルの回答の選択範囲が制限され、科學的な質(zhì)問に回答するモデルの能力を完全にテストすることはできません。対照的に、公開質(zhì)問応答 (openQA) では、モデルの機能をより包括的に評価できますが、適切な評価指標がありません。

第二に、既存のデータセットの內(nèi)容の多くは大學レベル以下の教科書からのものであり、実際の學術研究や生産環(huán)境でLLMの高度な知識保持能力を評価することが困難です。

第三に、これらのベンチマーク データセットの作成は人間の専門家のアノテーションに依存しています。

これらの課題に対処することは、より包括的な QA データセットを構築するために重要であり、科學的 LLM のより正確な評価にも役立ちます。

新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。

イラスト: 科學文獻から高品質(zhì)の科學的な質(zhì)問と回答のペアを生成するための SciQAG フレームワーク。

この目的のために、米國のアルゴンヌ國立研究所、シカゴ大學のイアン?フォスター教授のチーム(2002年ゴードン?ベル賞受賞者)、ニューサウスウェールズ大學のブラム?ホークス教授のUNSW AI4Scienceチーム、オーストラリア、AI4Science 企業(yè) GreenDynamics、および香港城市大學の Jie Chunyu 教授のチームは共同で、大規(guī)模な言語モデルに基づいて大規(guī)模な科學文獻コーパスから高品質(zhì)の科學的公開質(zhì)問と回答のペアを自動的に生成する初の新しいフレームワークである SciQAG を提案しました。 (LLM)。

新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。

論文リンク:https://arxiv.org/abs/2405.09939

githubリンク:https://github.com/MasterAI-EAM/SciQAG

研究者らはSciQAGに基づいて構築したSciQAG-24D は、大規(guī)模で高品質(zhì)のオープンな科學 QA データセットで、24 の科學分野の 22,743 の科學論文から抽出された 188,042 の QA ペアが含まれており、LLM の微調(diào)整と科學的問題の評価に役立つように設計されています。解決能力。

実験では、SciQAG-24D データセットで LLM を微調(diào)整すると、自由回答形式の質(zhì)問応答や科學的タスクのパフォーマンスが大幅に向上することが実証されました。

AI for Science コミュニティによるオープンな科學 Q&A の共同開発を促進するために、データセット、モデル、評価コードがオープンソース化されました (https://github.com/MasterAI-EAM/SciQAG)。

SciQAG-24D ベンチマーク データセットを備えた SciQAG フレームワーク

SciQAG は、QA ジェネレーターと QA エバリュエーターで構成され、科學文獻に基づいた多様な未解決の質(zhì)問と回答のペアを大規(guī)模に迅速に生成することを目的としています。まず、ジェネレータが科學論文を質(zhì)問と回答のペアに変換し、次に評価者が品質(zhì)基準を満たさない質(zhì)問と回答のペアをフィルタリングして、高品質(zhì)の科學的質(zhì)問と回答のデータセットを取得します。

QA ジェネレーター

研究者らは比較実験を通じて 2 段階のプロンプト (プロンプト) を設計し、LLM が最初にキーワードを抽出し、次にそのキーワードに基づいて質(zhì)問と回答のペアを生成できるようにしました。

生成された質(zhì)問と回答のデータセットは「クローズドブック」モードを採用しているため、つまり元の論文は提供されず、抽出された科學的知識自體にのみ焦點を當てています。プロンプトは、生成された質(zhì)問と回答のペアが依存しないことを要求します。元の論文に含まれる固有の情報について言及したり、「この論文」、「この研究」などの現(xiàn)代的な命名法を使用したり、その表や寫真について質(zhì)問したりすることはできません。記事)。

パフォーマンスとコストのバランスを取るために、研究者らはオープンソース LLM をジェネレーターとして微調(diào)整することを選択しました。 SciQAG ユーザーは、微調(diào)整またはプロンプト ワード エンジニアリングを使用して、獨自の狀況に応じて、オープン ソースまたはクローズド ソースの LLM をジェネレーターとして選択できます。

QA エバリュエーター

エバリュエーターは、(1) 生成された質(zhì)問と回答のペアの品質(zhì)を評価する、(2) 設定された基準に基づいて低品質(zhì)の質(zhì)問と回答のペアを破棄する、という 2 つの目的を達成するために使用されます。

研究者らは、関連性、不可知論、完全性、正確性、合理性の 5 つの側面から構成される包括的な評価指標 RACAR を開発しました。

この研究では、研究者らは QA 評価ツールとして GPT-4 を直接使用し、生成された QA ペアを RACAR に従って 1 ~ 5 の評価レベルで評価しました (1 は許容できないことを意味し、5 は完全に許容できることを意味します)。

図に示すように、GPT-4 と手動評価の間の一貫性を測定するために、2 人のドメイン専門家が RACAR メトリクスを使用して 10 件の記事 (合計 100 の質(zhì)問と回答のペア) に対して手動評価を実行しました。ユーザーは、ニーズに応じて、オープンソースまたはクローズドソースの LLM を評価者として選択できます。

新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。

図: GPT-4 に割り當てられたスコアと専門家の注釈スコアの間のスピアマンとピアソンの相関関係。

SciQAG フレームワークの適用

この研究では、Web of Science (WoS) コア コレクション データベースから、材料科學、化學、物理學、エネルギーなどの分野から、24 のカテゴリーで合計 22,743 件の高被引用論文を取得しました。 、信頼性が高く、豊富でバランスの取れた代表的な科學知識の情報源を構築することを目指しています。

オープンソース LLM を微調(diào)整して QA ジェネレーターを形成するために、研究者らは論文コレクションから 426 の論文を入力としてランダムに選択し、GPT-4 をプロンプトすることで 4260 のシード QA ペアを生成しました。

その後、研究者らはこれらのシードデータに基づいて Vicuna-7b モデルを微調(diào)整し、生成プロンプトが指示 に変換され、入力 フィールドに論文の內(nèi)容が入力され、出力 は生成された QA ペア

となりました。モデルの生成は、標準的な教師ありの方法でトレーニングされました。出力例。

トレーニング済み QA ジェネレーターを使用して殘りの論文に対して推論を実行し、合計 227,430 の QA ペア (シード QA ペアを含む) が生成されました。各カテゴリから 50 件の論文 (合計 1,200 件の論文) が抽出され、GPT-4 を使用して生成された各 QA ペアの RACAR スコアが計算され、いずれかのディメンション スコアが 3 未満の QA ペアがテスト セットとして除外されました。

殘りの QA ペアについては、ルールベースの方法を使用して、論文の一意の情報を含むすべての質(zhì)問と回答のペアをフィルタリングして除外し、トレーニング セットを形成します。

SciQAG-24D ベンチマーク データ セット

上記に基づいて、研究者はオープン科學 QA ベンチマーク データ セット SciQAG-24D を確立しました。フィルターされたトレーニング セットには 21,529 の論文と 179,511 の QA ペアが含まれ、フィルターされたテスト セットには次のものが含まれます。 1,199 件の論文と 8,531 件の QA ペア。

統(tǒng)計によると、回答內(nèi)のデータの 99.15% は元の論文からのものであり、質(zhì)問の 87.29% の類似性は 0.3 未満であり、回答は元のコンテンツの 78.26% をカバーしています。

このデータセットは広く使用されています。トレーニングセットはLLMを微調(diào)整し、科學的知識を注入するために使用できます。テストセットは、特定または全體的な科學分野におけるオープンQAタスクにおけるLLMのパフォーマンスを評価するために使用できます。 。テスト セットが大きいため、微調(diào)整用の高品質(zhì)データとしても使用できます。

新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。

図: SciQAG-24D データセットのトレーニングとテストにおけるさまざまなカテゴリの記事の割合。

実験結果

研究者らは、異なる言語モデル間の科學的質(zhì)問応答のパフォーマンスの違いを比較し、微調(diào)整の影響を調(diào)査するために包括的な実験を実施しました。

ゼロショット設定

研究者らは、SciQAG-24D のテストセットの一部を使用して、5 つのモデルのゼロショット性能を比較しました。そのうちの 2 つはオープンソース LLM、LLaMA1 (7B) と LLaMA2-chat (7B) で、殘りはクローズドソース LLM です。

API 経由で呼び出します: GPT3.5 (gpt-3.5-turbo)、GPT-4 (gpt-4-1106-preview)、および Claude 3 (claude-3-opus-20240229)。テストでは各モデルに 1,000 の質(zhì)問が表示され、その出力は CAR メトリクス (応答評価のみに焦點を當て、RACAR メトリクスから適応) によって評価され、科學研究の質(zhì)問に答えるゼロショット能力が測定されました。

図に示すように、すべてのモデルの中で、GPT-4 は完全性 (4.90) と妥當性 (4.99) のスコアが最も高く、Claude 3 は精度スコア (4.95) が最も高くなります。 GPT-3.5 も非常に優(yōu)れたパフォーマンスを示し、すべての指標で GPT-4 および Claude 3 に僅差のスコアを付けています。

特に、LLaMA1 は 3 つの次元すべてで最も低いスコアを持っています。対照的に、LLaMA2 チャット モデルは GPT モデルほどスコアは高くありませんが、すべての指標において元の LLaMA1 よりも大幅に向上しています。この結果は、科學的な質(zhì)問に答える上で商用 LLM の優(yōu)れたパフォーマンスが実証されている一方、オープンソース モデル (LLaMA2 チャットなど) もこの點で大きな進歩を遂げています。

新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。

図: SciQAG-24D でのゼロサンプルテストと微調(diào)整テスト (LLAMA1-QA)

微調(diào)整設定 (微調(diào)整設定)

研究者は、最悪のゼロを持つ LLaMA1 を選択しました。サンプルパフォーマンス SciQAG-24D のトレーニングセットに対して微調(diào)整を実行し、LLaMA1-QA を取得します。 3 つの実験を通じて、研究者らは、SciQAG-24D が下流の科學タスクのパフォーマンスを向上させるための効果的な微調(diào)整データとして使用できることを実証しました:

(a) 目に見えない SciQAG-24D テスト セットでの LLaMA-QA と元の LLaMA1 のパフォーマンス比較。

上の図に示すように、LLaMA1-QA のパフォーマンスは、元の LLaMA1 と比較して大幅に向上しました (完全性は 13% 向上、精度と妥當性は 30% 以上向上)。これは、LLaMA1 が SciQAG-24D の訓練データから科學的質(zhì)問に答えるロジックを學習し、科學的知識を內(nèi)面化していることを示しています。

(b) 科學的な MCQ ベンチマークである SciQ での微調(diào)整パフォーマンスの比較。

以下の表の最初の行は、LLaMA1-QA が LLaMA1 よりわずかに優(yōu)れている (+1%) ことを示しています。観察によると、微調(diào)整によりモデルの命令追従能力も向上しました。解析できない出力の確率は、LLaMA1 の 4.1% から LLaMA1-QA の 1.7% に低下しました。

(c) さまざまな科學的タスクにおける微調(diào)整パフォーマンスの比較。

評価指標としては、分類タスクにはF1スコア、回帰タスクにはMAE、変換タスクにはKLダイバージェンスが使用されます。以下の表に示すように、LLaMA1-QA は、科學的タスクにおいて LLaMA1 モデルと比較して大幅な改善が見られます。

最も明らかな改善は回帰タスクに反映されており、MAE が 463.96 から 185.32 に低下しました。これらの発見は、トレーニング中に QA ペアを組み込むことで、科學的知識を學習して適用するモデルの能力が向上し、それによって下流の予測タスクのパフォーマンスが向上する可能性があることを示唆しています。

驚くべきことに、LLM は、機能を備えた特別に設計された機械學習モデルと比較して、一部のタスクでは同等またはそれを上回る結果を達成できます。たとえば、バンド ギャップ タスクでは、LLaMA1-QA は MODNet (0.3327) などのモデルほどのパフォーマンスはありませんが、AMMExpress v2020 (0.4161) を上回っています。

多様性タスクでは、LLaMA1-QA が深層學習ベースライン (0.3198) を上回りました。これらの発見は、LLM が特定の科學的タスクにおいて大きな可能性を秘めていることを示しています。

新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。

図: SciQ および科學的タスクにおける LLaMA1 および LLaMA1-QA のパフォーマンスの微調(diào)整 (M は多肢選択を表し、C は分類を表し、R は回帰を表し、T は変換を表します)

概要と展望

( 1) SciQAG は、科學文獻から QA ペアを生成するためのフレームワークであり、QA ペアを評価およびスクリーニングするための RACAR メトリクスと組み合わせることで、リソースが乏しい科學分野向けに大量の知識ベースの QA データを効率的に生成できます。

(2) チームは、SciQAG-24D と呼ばれる、188,042 の QA ペアを含む包括的なオープンソースの科學 QA データセットを生成しました。トレーニング セットは LLM を微調(diào)整するために使用され、テスト セットはオープンエンドのクローズドブック科學 QA タスクにおける LLM のパフォーマンスを評価します。

SciQAG-24D テスト セット上のいくつかの LLM のゼロサンプル パフォーマンスが比較され、LLaMA1-QA を取得するために SciQAG-24D トレーニング セット上で LLaMA1 が微調(diào)整されました。この微調(diào)整により、複數(shù)の科學的タスクにおけるパフォーマンスが大幅に向上します。

(3) 研究によると、LLM には科學的タスクにおける可能性があり、LLaMA1-QA の結果は機械學習のベースラインを超えるレベルに達する可能性があります。これは、SciQAG-24D の多面的な有用性を示しており、科學的な QA データをトレーニング プロセスに組み込むことで、科學的知識を學習して適用する LLM の能力を強化できることを示しています。

以上が新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。の詳細內(nèi)容です。詳細については、PHP 中國語 Web サイトの他の関連記事を參照してください。

このウェブサイトの聲明
この記事の內(nèi)容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰屬します。このサイトは、それに相當する法的責任を負いません。盜作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undress AI Tool

Undress AI Tool

脫衣畫像を無料で

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード寫真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

寫真から衣服を削除するオンライン AI ツール。

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中國語版

SublimeText3 中國語版

中國語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統(tǒng)合開発環(huán)境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

「Defect Spectrum」は、従來の欠陥検出の限界を打ち破り、超高精度かつ豊富なセマンティックな産業(yè)用欠陥検出を初めて実現(xiàn)します。 「Defect Spectrum」は、従來の欠陥検出の限界を打ち破り、超高精度かつ豊富なセマンティックな産業(yè)用欠陥検出を初めて実現(xiàn)します。 Jul 26, 2024 pm 05:38 PM

現(xiàn)代の製造において、正確な欠陥検出は製品の品??質(zhì)を確保するための鍵であるだけでなく、生産効率を向上させるための核心でもあります。ただし、既存の欠陥検出データセットには、実際のアプリケーションに必要な精度や意味論的な豊富さが欠けていることが多く、その結果、モデルが特定の欠陥カテゴリや位置を識別できなくなります。この問題を解決するために、広州香港科技大學と Simou Technology で構成されるトップの研究チームは、産業(yè)欠陥に関する詳細かつ意味的に豊富な大規(guī)模なアノテーションを提供する「DefectSpectrum」データセットを革新的に開発しました。表 1 に示すように、他の産業(yè)データ セットと比較して、「DefectSpectrum」データ セットは最も多くの欠陥注釈 (5438 個の欠陥サンプル) と最も詳細な欠陥分類 (125 個の欠陥カテゴリ) を提供します。

NVIDIA 対話モデル ChatQA はバージョン 2.0 に進化し、コンテキストの長さは 128K と記載されています NVIDIA 対話モデル ChatQA はバージョン 2.0 に進化し、コンテキストの長さは 128K と記載されています Jul 26, 2024 am 08:40 AM

オープンな LLM コミュニティは百花繚亂の時代です Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1 などがご覧いただけます。優(yōu)秀なパフォーマーモデル。しかし、GPT-4-Turboに代表される獨自の大型モデルと比較すると、オープンモデルには依然として多くの分野で大きなギャップがあります。一般的なモデルに加えて、プログラミングと數(shù)學用の DeepSeek-Coder-V2 や視覚言語タスク用の InternVL など、主要な領域に特化したいくつかのオープン モデルが開発されています。

結晶相問題を解決するための數(shù)百萬の結晶データを使用したトレーニング、深層學習手法 PhAI が Science 誌に掲載 結晶相問題を解決するための數(shù)百萬の結晶データを使用したトレーニング、深層學習手法 PhAI が Science 誌に掲載 Aug 08, 2024 pm 09:22 PM

編集者 |KX 今日に至るまで、単純な金屬から大きな膜タンパク質(zhì)に至るまで、結晶學によって決定される構造の詳細と精度は、他のどの方法にも匹敵しません。しかし、最大の課題、いわゆる位相問題は、実験的に決定された振幅から位相情報を取得することのままです。デンマークのコペンハーゲン大學の研究者らは、結晶相の問題を解決するための PhAI と呼ばれる深層學習手法を開発しました。數(shù)百萬の人工結晶構造とそれに対応する合成回折データを使用して訓練された深層學習ニューラル ネットワークは、正確な電子密度マップを生成できます。この研究では、この深層學習ベースの非経験的構造解法は、従來の非経験的計算法とは異なり、わずか 2 オングストロームの解像度で位相問題を解決できることが示されています。これは、原子解像度で利用可能なデータのわずか 10% ~ 20% に相當します。

Google AI が IMO 數(shù)學オリンピック銀メダルを獲得、數(shù)理推論モデル AlphaProof が発売、強化學習が復活 Google AI が IMO 數(shù)學オリンピック銀メダルを獲得、數(shù)理推論モデル AlphaProof が発売、強化學習が復活 Jul 26, 2024 pm 02:40 PM

AI にとって、數(shù)學オリンピックはもはや問題ではありません。木曜日、Google DeepMind の人工知能は、AI を使用して今年の國際數(shù)學オリンピック IMO の本當の問題を解決するという偉業(yè)を達成し、金メダル獲得まであと一歩のところまで迫りました。先週終了したばかりの IMO コンテストでは、代數(shù)、組合せ論、幾何學、數(shù)論を含む 6 つの問題が出題されました。 Googleが提案したハイブリッドAIシステムは4問正解で28點を獲得し、銀メダルレベルに達した。今月初め、UCLA 終身教授のテレンス?タオ氏が、100 萬ドルの賞金をかけて AI 數(shù)學オリンピック (AIMO Progress Award) を宣伝したばかりだったが、予想外なことに、AI の問題解決のレベルは 7 月以前にこのレベルまで向上していた。 IMO に関する質(zhì)問を同時に行うのが最も難しいのは、最も歴史が長く、規(guī)模が最も大きく、最も否定的な IMO です。

新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科學的で複雑な質(zhì)問応答ベンチマークと大規(guī)模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大學、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質(zhì)問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質(zhì)の QA データ セットは、モデルの微調(diào)整に使用できるだけでなく、大規(guī)模言語モデル (LLM) の機能、特に科學的知識を理解し推論する能力を効果的に評価することもできます?,F(xiàn)在、醫(yī)學、化學、生物學、その他の分野をカバーする多くの科學 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠點があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質(zhì)問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科學的な質(zhì)問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 Aug 01, 2024 pm 09:40 PM

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米國カリフォルニア州サンタクララで開催されるグローバル半導體メモリサミットFMS2024に參加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス

PRO | なぜ MoE に基づく大規(guī)模モデルがより注目に値するのでしょうか? PRO | なぜ MoE に基づく大規(guī)模モデルがより注目に値するのでしょうか? Aug 07, 2024 pm 07:08 PM

2023 年には、AI のほぼすべての分野が前例のない速度で進化しています。同時に、AI は身體化されたインテリジェンスや自動運転などの主要な分野の技術的限界を押し広げています。マルチモーダルの流れのもと、AI大型モデルの主流アーキテクチャとしてのTransformerの狀況は揺るがされるだろうか? MoE (専門家混合) アーキテクチャに基づく大規(guī)模モデルの検討が業(yè)界の新しいトレンドになっているのはなぜですか?ラージ ビジョン モデル (LVM) は、一般的な視覚における新たなブレークスルーとなる可能性がありますか? ...過去 6 か月間にリリースされたこのサイトの 2023 PRO メンバー ニュースレターから、上記の分野の技術トレンドと業(yè)界の変化を詳細に分析し、新しい分野での目標を達成するのに役立つ 10 の特別な解釈を選択しました。準備してください。この解釈は 2023 年の Week50 からのものです

Transformer に基づく浙江大學の化學逆合成予測モデルは、Nature サブジャーナルで 60.8% に達しました。 Transformer に基づく浙江大學の化學逆合成予測モデルは、Nature サブジャーナルで 60.8% に達しました。 Aug 06, 2024 pm 07:34 PM

編集者 | KX 逆合成は創(chuàng)薬や有機合成において重要なタスクであり、そのプロセスを高速化するために AI の使用が増えています。既存の AI 手法はパフォーマンスが不十分で、多様性が限られています。実際には、化學反応は多くの場合、反応物と生成物の間にかなりの重複を伴??う局所的な分子変化を引き起こします。これに觸発されて、浙江大學のHou Tingjun氏のチームは、単一ステップの逆合成予測を分子列編集タスクとして再定義し、標的分子列を反復的に改良して前駆體化合物を生成することを提案した。そして、高品質(zhì)かつ多様な予測を実現(xiàn)できる編集ベースの逆合成モデルEditRetroを提案する。広範な実験により、このモデルが標準ベンチマーク データ セット USPTO-50 K で優(yōu)れたパフォーマンスを達成し、トップ 1 の精度が 60.8% であることが示されました。

See all articles