亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

目錄
蛋白質(zhì)-配體結(jié)合親和力預測研究
新穎的多模態(tài)特征提取框架
SOTA 性能
消融研究
超參數(shù)分析
特征對齊分析與可視化
首頁 科技周邊 人工智能 SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

Jul 17, 2024 pm 06:37 PM
人工智能 蛋白質(zhì) 理論 藥物 生物學 多模態(tài)學習

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

編輯 | KX

在藥物研發(fā)領域,準確有效地預測蛋白質(zhì)與配體的結(jié)合親和力對于藥物篩選和優(yōu)化至關(guān)重要。然而,目前的研究沒有考慮到分子表面信息在蛋白質(zhì)-配體相互作用中的重要作用。

基于此,來自廈門大學的研究人員提出了一種新穎的多模態(tài)特征提取(MFE)框架,該框架首次結(jié)合了蛋白質(zhì)表面、3D 結(jié)構(gòu)和序列的信息,并使用交叉注意機制進行不同模態(tài)之間的特征對齊。

實驗結(jié)果表明,該方法在預測蛋白質(zhì)-配體結(jié)合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內(nèi)蛋白質(zhì)表面信息和多模態(tài)特征對齊的有效性和必要性。

相關(guān)研究以「Surface-based multimodal protein–ligand binding affinity prediction」為題,于 6 月 21 日發(fā)布在《Bioinformatics》上。

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

論文鏈接:https://academic.oup.com/bioinformatics/article/40/7/btae413/7697100
gitHub 地址:https://github.com/Sultans0fSwing/MFE

蛋白質(zhì)-配體結(jié)合親和力預測研究

作為藥物發(fā)現(xiàn)的關(guān)鍵階段,預測蛋白質(zhì)-配體結(jié)合親和力,長期以來得到了廣泛的研究,這對于高效、準確的藥物篩選至關(guān)重要。

傳統(tǒng)的計算機輔助藥物發(fā)現(xiàn)工具使用評分函數(shù)(SF)粗略估計蛋白質(zhì)-配體結(jié)合親和力,但準確性較低。分子動力學模擬方法可以提供更準確的結(jié)合親和力估計,但通常成本高昂且耗時。

隨著計算技術(shù)的發(fā)展和大規(guī)模生物數(shù)據(jù)的日益豐富,基于深度學習的方法在蛋白質(zhì)-配體結(jié)合親和力預測領域顯示出巨大的潛力。

然而,目前的研究主要利用基于序列或結(jié)構(gòu)的表示來預測蛋白質(zhì)-配體的結(jié)合親和力,對蛋白質(zhì)-配體相互作用至關(guān)重要的蛋白質(zhì)表面信息的研究相對較少。

分子表面是蛋白質(zhì)結(jié)構(gòu)的高級表示,它表現(xiàn)出化學和幾何特征模式,可作為蛋白質(zhì)與其他生物分子相互作用模式的指紋。因此,一些研究開始使用蛋白質(zhì)表面信息來預測蛋白質(zhì)-配體結(jié)合親和力。

但現(xiàn)有的方法主要關(guān)注單模態(tài)數(shù)據(jù),忽略了蛋白質(zhì)的多模態(tài)信息。此外,在處理蛋白質(zhì)的多模態(tài)信息時,傳統(tǒng)方法通常以直接的方式連接來自不同模態(tài)的特征,而不考慮它們之間的異質(zhì)性,這導致無法有效利用模態(tài)之間的互補性。

新穎的多模態(tài)特征提取框架

在此,研究人員提出了一種新穎的多模態(tài)特征提取 (MFE) 框架,該框架首次結(jié)合了來自蛋白質(zhì)表面、3D 結(jié)構(gòu)和序列的信息。

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

圖 1:MFE 框架。(來源:論文)

具體來說,研究設計了兩個主要組件:蛋白質(zhì)特征提取模塊和多模態(tài)特征比對模塊。

蛋白質(zhì)特征提取模塊用于從蛋白質(zhì)表面、結(jié)構(gòu)和序列信息中提取初始嵌入。

在多模態(tài)特征比對模塊中,使用交叉注意機制實現(xiàn)蛋白質(zhì)結(jié)構(gòu)、序列嵌入和表面嵌入之間的特征比對,以獲得統(tǒng)一且信息豐富的特征嵌入。

與目前最先進的方法相比,所提出的框架在蛋白質(zhì)-配體結(jié)合親和力預測任務上取得了最佳效果。

SOTA 性能

表 1 展示了 MFE 和其他基線模型在蛋白質(zhì)-配體結(jié)合親和力預測任務上的結(jié)果。所有模型都使用相同的訓練集和驗證集劃分方法,并在 PDBbind 核心集(版本 2016)上進行測試??梢园l(fā)現(xiàn),與所有基線相比,MFE 方法實現(xiàn)了 SOTA 性能。

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

消融研究

為了進一步證明不同模態(tài)特征和特征比對的有效性和必要性,研究人員進行了以下消融研究:W/O 蛋白質(zhì)表面信息、W/O 蛋白質(zhì)結(jié)構(gòu)信息、W/O 蛋白質(zhì)序列信息和無特征比對。結(jié)果如表 2 和圖 2 所示。

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

圖 2:消融研究結(jié)果。(來源:論文)

結(jié)果表明,當去除表面信息時,性能會明顯下降,這表明表面信息在模型中起著至關(guān)重要的作用。同樣,排除結(jié)構(gòu)或序列信息都會導致性能下降,而序列信息的消除會導致更明顯的下降。這是因為序列信息包含了蛋白質(zhì)的全局信息,這對于模型對蛋白質(zhì)的全面理解至關(guān)重要。

此外,在沒有特征比對的情況下,模型的性能會下降。這強調(diào)了特征比對在處理多模態(tài)數(shù)據(jù)中的重要性,因為它有助于減少不同模態(tài)特征之間的異質(zhì)性,從而提高模型有效整合不同模態(tài)特征的能力。

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

超參數(shù)分析

為了研究不同超參數(shù)對模型性能的影響,研究人員進行了以下三個實驗:(i)MFE-A-6:僅使用 6 種基本原子類型來表示表面的化學特性,包括氫、碳、氮、氧、磷、硫;(ii)MFE-P-256:僅選擇最靠近配體中心的 256 個表面點作為蛋白質(zhì)口袋表面;(iii)MFE-P-1024:選擇最靠近配體中心的 1024 個表面點作為蛋白質(zhì)口袋表面。

圖 3 為三種不同的超參數(shù)選擇方法在蛋白質(zhì)-配體結(jié)合親和力預測任務上的結(jié)果。

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

圖 3:超參數(shù)分析。(來源:論文)

特征對齊分析與可視化

為了深入研究特征對齊對模型性能的影響,研究人員使用主成分分析 (PCA) 對測試集中的蛋白質(zhì)表面、結(jié)構(gòu)和序列特征進行降維和可視化分析。此方法旨在確定特征對齊是否可以減輕多模態(tài)嵌入之間的異質(zhì)性。

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息

圖 4:特征比對前(a)和特征比對后(b)的蛋白質(zhì)表面、結(jié)構(gòu)和序列嵌入降維可視化結(jié)果。(來源:論文)

研究發(fā)現(xiàn),特征對齊顯著增強了蛋白質(zhì)表面、結(jié)構(gòu)和序列嵌入之間的一致性。這是由于通過注意力機制優(yōu)化了 Transformer 中的多模態(tài)特征交互,該機制計算了不同特征之間的注意力權(quán)重。這增強了模型捕獲關(guān)鍵信息的能力,使來自不同模態(tài)的數(shù)據(jù)在特征空間中更緊密地聚集,從而減少了模型識別蛋白質(zhì)-配體相互作用時的噪音和錯誤。

最后,研究人員總結(jié)道,「總之,通過研究蛋白質(zhì)的表面,我們可以更深入地了解蛋白質(zhì)如何與其他生物分子相互作用。在未來的工作中,我們將更徹底地探索蛋白質(zhì)表面,以揭示它們在生物信息學中的更廣泛應用?!?/p>

注:封面來自網(wǎng)絡

以上是SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預測AI方法,首次結(jié)合分子表面信息的詳細內(nèi)容。更多信息請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本站聲明
本文內(nèi)容由網(wǎng)友自發(fā)貢獻,版權(quán)歸原作者所有,本站不承擔相應法律責任。如您發(fā)現(xiàn)有涉嫌抄襲侵權(quán)的內(nèi)容,請聯(lián)系admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費脫衣服圖片

Undresser.AI Undress

Undresser.AI Undress

人工智能驅(qū)動的應用程序,用于創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用于從照片中去除衣服的在線人工智能工具。

Clothoff.io

Clothoff.io

AI脫衣機

Video Face Swap

Video Face Swap

使用我們完全免費的人工智能換臉工具輕松在任何視頻中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的代碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

功能強大的PHP集成開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級代碼編輯軟件(SublimeText3)

字節(jié)跳動剪映推出 SVIP 超級會員:連續(xù)包年 499 元,提供多種 AI 功能 字節(jié)跳動剪映推出 SVIP 超級會員:連續(xù)包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日消息,剪映是由字節(jié)跳動旗下臉萌科技開發(fā)的一款視頻剪輯軟件,依托于抖音平臺且基本面向該平臺用戶制作短視頻內(nèi)容,并兼容iOS、安卓、Windows、MacOS等操作系統(tǒng)。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智能翻譯、智能劃重點、智能包裝、數(shù)字人合成等。價格方面,剪映SVIP月費79元,年費599元(本站注:折合每月49.9元),連續(xù)包月則為59元每月,連續(xù)包年為499元每年(折合每月41.6元)。此外,剪映官方還表示,為提升用戶體驗,向已訂閱了原版VIP

突破傳統(tǒng)缺陷檢測的界限,\'Defect Spectrum\'首次實現(xiàn)超高精度豐富語義的工業(yè)缺陷檢測。 突破傳統(tǒng)缺陷檢測的界限,\'Defect Spectrum\'首次實現(xiàn)超高精度豐富語義的工業(yè)缺陷檢測。 Jul 26, 2024 pm 05:38 PM

在現(xiàn)代制造業(yè)中,精準的缺陷檢測不僅是保證產(chǎn)品質(zhì)量的關(guān)鍵,更是提升生產(chǎn)效率的核心。然而,現(xiàn)有的缺陷檢測數(shù)據(jù)集常常缺乏實際應用所需的精確度和語義豐富性,導致模型無法識別具體的缺陷類別或位置。為了解決這一難題,由香港科技大學廣州和思謀科技組成的頂尖研究團隊,創(chuàng)新性地開發(fā)出了“DefectSpectrum”數(shù)據(jù)集,為工業(yè)缺陷提供了詳盡、語義豐富的大規(guī)模標注。如表一所示,相比其他工業(yè)數(shù)據(jù)集,“DefectSpectrum”數(shù)據(jù)集提供了最多的缺陷標注(5438張缺陷樣本),最細致的缺陷分類(125種缺陷類別

英偉達對話模型ChatQA進化到2.0版本,上下文長度提到128K 英偉達對話模型ChatQA進化到2.0版本,上下文長度提到128K Jul 26, 2024 am 08:40 AM

開放LLM社區(qū)正是百花齊放、競相爭鳴的時代,你能看到Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1等許多表現(xiàn)優(yōu)良的模型。但是,相比于以GPT-4-Turbo為代表的專有大模型,開放模型在很多領域依然還有明顯差距。在通用模型之外,也有一些專精關(guān)鍵領域的開放模型已被開發(fā)出來,比如用于編程和數(shù)學的DeepSeek-Coder-V2、用于視覺-語言任務的InternVL

數(shù)百萬晶體數(shù)據(jù)訓練,解決晶體學相位問題,深度學習方法PhAI登Science 數(shù)百萬晶體數(shù)據(jù)訓練,解決晶體學相位問題,深度學習方法PhAI登Science Aug 08, 2024 pm 09:22 PM

編輯|KX時至今日,晶體學所測定的結(jié)構(gòu)細節(jié)和精度,從簡單的金屬到大型膜蛋白,是任何其他方法都無法比擬的。然而,最大的挑戰(zhàn)——所謂的相位問題,仍然是從實驗確定的振幅中檢索相位信息。丹麥哥本哈根大學研究人員,開發(fā)了一種解決晶體相問題的深度學習方法PhAI,利用數(shù)百萬人工晶體結(jié)構(gòu)及其相應的合成衍射數(shù)據(jù)訓練的深度學習神經(jīng)網(wǎng)絡,可以生成準確的電子密度圖。研究表明,這種基于深度學習的從頭算結(jié)構(gòu)解決方案方法,可以以僅2埃的分辨率解決相位問題,該分辨率僅相當于原子分辨率可用數(shù)據(jù)的10%到20%,而傳統(tǒng)的從頭算方

谷歌AI拿下IMO奧數(shù)銀牌,數(shù)學推理模型AlphaProof面世,強化學習 is so back 谷歌AI拿下IMO奧數(shù)銀牌,數(shù)學推理模型AlphaProof面世,強化學習 is so back Jul 26, 2024 pm 02:40 PM

對于AI來說,奧數(shù)不再是問題了。本周四,谷歌DeepMind的人工智能完成了一項壯舉:用AI做出了今年國際數(shù)學奧林匹克競賽IMO的真題,并且距拿金牌僅一步之遙。上周剛剛結(jié)束的IMO競賽共有六道賽題,涉及代數(shù)、組合學、幾何和數(shù)論。谷歌提出的混合AI系統(tǒng)做對了四道,獲得28分,達到了銀牌水平。本月初,UCLA終身教授陶哲軒剛剛宣傳了百萬美元獎金的AI數(shù)學奧林匹克競賽(AIMO進步獎),沒想到7月還沒過,AI的做題水平就進步到了這種水平。IMO上同步做題,做對了最難題IMO是歷史最悠久、規(guī)模最大、最負

為大模型提供全新科學復雜問答基準與測評體系,UNSW、阿貢、芝加哥大學等多家機構(gòu)聯(lián)合推出SciQAG框架 為大模型提供全新科學復雜問答基準與測評體系,UNSW、阿貢、芝加哥大學等多家機構(gòu)聯(lián)合推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)數(shù)據(jù)集在推動自然語言處理(NLP)研究發(fā)揮著至關(guān)重要的作用。高質(zhì)量QA數(shù)據(jù)集不僅可以用于微調(diào)模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。盡管當前已有許多科學QA數(shù)據(jù)集,涵蓋了醫(yī)學、化學、生物等領域,但這些數(shù)據(jù)集仍存在一些不足。其一,數(shù)據(jù)形式較為單一,大多數(shù)為多項選擇題(multiple-choicequestions),它們易于進行評估,但限制了模型的答案選擇范圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

SK 海力士 8 月 6 日將展示 AI 相關(guān)新品:12 層 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日將展示 AI 相關(guān)新品:12 層 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)發(fā)布博文,宣布將出席8月6日至8日,在美國加利福尼亞州圣克拉拉舉行的全球半導體存儲器峰會FMS2024,展示諸多新一代產(chǎn)品。未來存儲器和存儲峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的閃存峰會(FlashMemorySummit),在人工智能技術(shù)日益受到關(guān)注的背景下,今年重新命名為未來存儲器和存儲峰會(FutureMemoryandStorage),以邀請DRAM和存儲供應商等更多參與者。新產(chǎn)品SK海力士去年在

PRO | 為什么基于 MoE 的大模型更值得關(guān)注? PRO | 為什么基于 MoE 的大模型更值得關(guān)注? Aug 07, 2024 pm 07:08 PM

2023年,幾乎AI的每個領域都在以前所未有的速度進化,同時,AI也在不斷地推動著具身智能、自動駕駛等關(guān)鍵賽道的技術(shù)邊界。多模態(tài)趨勢下,Transformer作為AI大模型主流架構(gòu)的局面是否會撼動?為何探索基于MoE(專家混合)架構(gòu)的大模型成為業(yè)內(nèi)新趨勢?大型視覺模型(LVM)能否成為通用視覺的新突破?...我們從過去的半年發(fā)布的2023年本站PRO會員通訊中,挑選了10份針對以上領域技術(shù)趨勢、產(chǎn)業(yè)變革進行深入剖析的專題解讀,助您在新的一年里為大展宏圖做好準備。本篇解讀來自2023年Week50

See all articles