亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

搜索

連續(xù)發(fā)布兩款萬億參數(shù)模型,螞蟻 AI 來勢洶洶

看不見的法師
發(fā)布: 2025-10-12 17:00:02
原創(chuàng)
147人瀏覽過

剛剛過去的國慶,各行各業(yè)進(jìn)入放假模式,但大模型行業(yè)卻一刻也沒閑著。

過去的半個(gè)月,國內(nèi)外大模型的頭部團(tuán)隊(duì)有十余款重磅產(chǎn)品發(fā)布,但每個(gè)團(tuán)隊(duì)的產(chǎn)品側(cè)重不同。

其中,九月下旬,阿里發(fā)布以Qwen3-Max為代表的全家桶產(chǎn)品,大秀了一把肌肉;九月末,DeepSeek和Anthropic瞄準(zhǔn)真實(shí)編程場景,先后發(fā)布了DeepSeek V3.2-Exp和Claude Sonnet 4.5,此外,智譜也拿出GLM-4.6,目標(biāo)沖擊國內(nèi)最強(qiáng)代碼模型。

有人全盤布局,也有人專攻精尖,在大模型領(lǐng)域競爭駛向深水區(qū)后,各個(gè)公司戰(zhàn)略路線出現(xiàn)了分野。

10月9日凌晨,螞蟻百靈大模型團(tuán)隊(duì)奇襲般官宣了一款自家最新語言大模型Ling-1T,參數(shù)量達(dá)到1000B(即1萬億參數(shù))。然而,就在十天前,百靈團(tuán)隊(duì)才將自研Ring-1T-preview大模型開源。

短短十天內(nèi),發(fā)布并開源兩款萬億參數(shù)模型,如此密集的產(chǎn)品發(fā)布讓螞蟻百靈大模型成為了行業(yè)熱議對象。

與此同時(shí),這樣毫無保留的開源動(dòng)作,也讓業(yè)界猜測:螞蟻到底意圖何在?

01

探索智能上限是終極目標(biāo)

據(jù)PHP中文網(wǎng)(公眾號:PHP中文網(wǎng))了解,螞蟻集團(tuán)研發(fā)的基礎(chǔ)大模型取名“百靈”,寓意“百試百靈”,也蘊(yùn)含科技普惠之意,和阿里一樣,螞蟻也是獨(dú)立團(tuán)隊(duì)獨(dú)立研發(fā),Ling-1T和Ring-1T-preview分別是螞蟻百靈團(tuán)隊(duì)研發(fā)的非思考模型和思考模型。

過去半年時(shí)間里,螞蟻一直在對百靈大模型進(jìn)行迭代優(yōu)化,并且自上而下形成了三條技術(shù)探索路線:

一條是以MoE架構(gòu)為基礎(chǔ)的非思考模型Ling-Series,另一條是思考模型Ring-Series,第三條是原生全模態(tài)大模型Ming-Series。

如今,螞蟻百靈團(tuán)隊(duì)在Ling和Ring兩款模型路線上都已經(jīng)將參數(shù)量擴(kuò)大到萬億參數(shù)。

萬億參數(shù),幾乎等同于人類大腦神經(jīng)元數(shù)量,相當(dāng)于讓AI擁有等同于人腦的處理能力,但萬億參數(shù)非常難訓(xùn)。目前,國內(nèi)能達(dá)到萬億參數(shù)規(guī)模的大模型也是鳳毛麟角。

除了剛才提到的百靈大模型Ling-1T和Ring-1T-preview,目前國內(nèi)公開資料可查的萬億參數(shù)大模型只有Kimi K2、阿里Qwen3-Max和騰訊混元大模型等少數(shù)幾個(gè)模型,可見大模型領(lǐng)域“萬億俱樂部”的門檻之高。

雖然今年以來盛行“數(shù)據(jù)撞墻論”和“預(yù)訓(xùn)練終結(jié)”的觀點(diǎn),但越來越多科學(xué)家也形成了一個(gè)新的共識:更大的參數(shù),更多的數(shù)據(jù),仍然能帶來持續(xù)的性能提升。

阿里的算法負(fù)責(zé)人林俊旸公開表態(tài):Scaling Law仍然沒見頂,訓(xùn)練數(shù)據(jù)的增加,參數(shù)規(guī)模的擴(kuò)大,都還能看到模型性能的提升。

楊植麟的Kimi團(tuán)隊(duì)更是克服萬難悶頭苦干,終于在兩個(gè)月前,拿出了萬億參數(shù)的旗艦?zāi)P蚄2。通義千問團(tuán)隊(duì)直接提出了“大就是好”的暴論,并且讓Qwen3堅(jiān)定不移地沿著“Just Scale it”的擴(kuò)展路徑前進(jìn)。

由此可見,大家都還在朝著“探索智能上限”出發(fā)。

02

百靈大模型加速涌現(xiàn)

據(jù)PHP中文網(wǎng)了解,過去一年里,平均7天就有一款高性能大模型誕生。可以說,國內(nèi)不缺大模型。

但在參數(shù)和效率之間,能做到完美平衡的大模型卻不多。

就拿萬億參數(shù)模型來說,模型變大了,往往會(huì)犧牲推理速度,推理速度上去了,準(zhǔn)確率又很難達(dá)到。業(yè)界知名的旗艦款大參數(shù)模型,都能在推理能力和思考效率上做到很不錯(cuò)的平衡。

這個(gè)平衡點(diǎn),被稱之為帕累托最優(yōu),我們經(jīng)常用多維基準(zhǔn)測試的分?jǐn)?shù)來量化對比。這次螞蟻發(fā)布的Ling-1T在公開的對比榜單中,表現(xiàn)讓人非常意外。

下圖是Ling-1T在部分權(quán)威基準(zhǔn)評測的表現(xiàn),紅色加粗代表Ling-1T的得分獲得Top1,黑色加粗下劃線表示Top2:

???AI 智能聊天, 問答助手, AI 智能搜索, 免費(fèi)無限量使用 DeepSeek R1 模型???

連續(xù)發(fā)布兩款萬億參數(shù)模型,螞蟻 AI 來勢洶洶

我們重點(diǎn)關(guān)注的編程與數(shù)學(xué)推理(Coding & Math)兩個(gè)維度上,Ling-1T表現(xiàn)非常亮眼,甚至多個(gè)得分超過DeepSeek。在知識理解方面,Ling-1T也比Kimi、GPT-5主干模型等的得分,高出幾分。

這意味著,Ling-1T的深度思考能力和泛化能力,以及邏輯推理能力,都非常全面。因此,Ling-1T會(huì)非常擅長從事代碼生成、軟件開發(fā)、競賽數(shù)學(xué)、專業(yè)數(shù)學(xué)、邏輯推理等場景。

但對于萬億參數(shù)模型來說,除了綜合性能,還需要考慮一個(gè)問題:推理正確率。這就需要引入競賽數(shù)學(xué)榜單AIME 25競賽數(shù)學(xué)榜單AIME 25的挑戰(zhàn),Ling-1T的成績?nèi)缦拢?/p>

連續(xù)發(fā)布兩款萬億參數(shù)模型,螞蟻 AI 來勢洶洶

Ling-1T在AIME 25測試中,與DeepSeek-V3.1-Terminus、Kimi-K2-Instruct-0905(開源)以及GPT-5-main、Gemini-2.5-Pro(閉源)這些旗艦?zāi)P蛯Ρ龋故境龈痰乃伎悸窂胶透叩耐评頊?zhǔn)確率,能做到支持128K長文本窗口處理能力,每個(gè)token做到約50B參數(shù)的激活量。

這樣的成績,源自螞蟻百靈團(tuán)隊(duì)長時(shí)間的積累與創(chuàng)新。

天工大模型
天工大模型

中國首個(gè)對標(biāo)ChatGPT的雙千億級大語言模型

天工大模型115
查看詳情 天工大模型

依托于團(tuán)隊(duì)儲(chǔ)備的二十萬億Token高質(zhì)量文本語料訓(xùn)練,Ling-1T吃進(jìn)了大量優(yōu)質(zhì)知識。在預(yù)訓(xùn)練階段,Ling-1T的訓(xùn)練團(tuán)隊(duì)讓由Ling Scaling Laws自我設(shè)置關(guān)鍵超參,簡單地說,就是讓大模型自我優(yōu)化。

同時(shí)在強(qiáng)化訓(xùn)練階段,加入了百靈團(tuán)隊(duì)原創(chuàng)的LPO策略優(yōu)化算法,讓模型回答得更對。

此外,團(tuán)隊(duì)還額外提出了“語法-功能-美學(xué)”的混合獎(jiǎng)勵(lì)機(jī)制,提高模型審美。下面這張是Ling-1T工程師繪制的模型架構(gòu)圖:

連續(xù)發(fā)布兩款萬億參數(shù)模型,螞蟻 AI 來勢洶洶

不止是剛發(fā)布的Ling-1T和9月30日發(fā)布的Ring-1T-preview,螞蟻實(shí)際上已經(jīng)形成了完整的百靈大模型家族。

從尺寸上,包含從160億總參數(shù)到1萬億總參數(shù)的大語言模型產(chǎn)品矩陣;從模態(tài)上,包含了能看能聽能說能畫的,從理解到生成能統(tǒng)一的大模型;

從場景上,也形成了包括手機(jī)上可以運(yùn)行的Ling-mini,還有能在中小企業(yè)服務(wù)器上部署的Ling-flash,以及云端可調(diào)用的Ling-1T。

連續(xù)發(fā)布兩款萬億參數(shù)模型,螞蟻 AI 來勢洶洶

這些模型,在過去一段時(shí)間,無論是社區(qū)榜單還是實(shí)際使用上,都得到了很多有效回應(yīng)。

螞蟻百靈團(tuán)隊(duì)開發(fā)的全模態(tài)模型Ming-lite-omni v1.5甚至在Hugging Face模型趨勢榜(any to any)排到過第一的位置。

Ring-1T-preview發(fā)布完的第二天,就沖上了Hugging Face模型榜Text Generation總榜排名第三,排名第四的也是9月Ling團(tuán)隊(duì)發(fā)布的混合架構(gòu)思考模型Ring-flash-linear-2.0。

圖靈獎(jiǎng)得主Yann LeCun(楊立昆)甚至點(diǎn)贊并評論“Impressive”(了不起),了解這位特立獨(dú)行大佬的網(wǎng)友表示:“ LeCun愿意給LLM(大模型)說句好話不容易”。

一位蘋果工程師量化完跑起來模型,評價(jià)螞蟻百靈模型的性能“Getting closer to GPT-5 at home”(在本地部署上的性能接近GPT-5)。

這些技術(shù)從業(yè)者和開發(fā)者們的真實(shí)聲音,給予了百靈模型非常正向的反饋。

03

探索AGI,亟需參與者們的共建意識

百靈團(tuán)隊(duì),如此快速地躋身“萬億參數(shù)俱樂部”,背后跟螞蟻的戰(zhàn)略動(dòng)作分不開。作為一家成立了20年的互聯(lián)網(wǎng)公司”,螞蟻在AI領(lǐng)域的投入一直是非常巨大的。

去年螞蟻20周年時(shí)候,螞蟻集團(tuán)董事長井賢棟宣布:未來20年,螞蟻要做一家科技驅(qū)動(dòng)、創(chuàng)新驅(qū)動(dòng)的公司。螞蟻集團(tuán)還提出了AI First戰(zhàn)略,并將其與“支付寶雙飛輪”和“加速全球化”一齊,并稱為螞蟻集團(tuán)的三大戰(zhàn)略。

而Ling-1T和Ring-1T-preview的出現(xiàn),則是螞蟻AI First戰(zhàn)略持續(xù)加速的表現(xiàn)。

不選擇閉源道路,而是選擇了開源,足以證明,螞蟻想干一件更長遠(yuǎn)的事:

通過技術(shù)開放的方式,不斷迭代技術(shù),構(gòu)建一個(gè)真正開放的AGI生態(tài)。

根據(jù)AI科技評論了解,目前“萬億參數(shù)俱樂部”里能做到完全開源的,只有螞蟻百靈的Ling-1T和Ring-1T-preview,以及Kimi的K2。

在大模型參數(shù)軍備競賽愈演愈烈的2025年,投入如此巨大之后,螞蟻選擇直接開源,看似讓人費(fèi)解。

但如果了解大模型開源背后的意圖,就會(huì)明白,當(dāng)Ling-1T和Ring-1T-preview這樣萬億參數(shù)模型,公布了背后的訓(xùn)練數(shù)據(jù)、算法、模型,開發(fā)者可以直接利用這些“龐然大物”作為起點(diǎn),快速構(gòu)建復(fù)雜的應(yīng)用程序,無需關(guān)心底層模型的訓(xùn)練。一個(gè)“使用-反饋-迭代”的正向循環(huán),將極大推動(dòng)技術(shù)共建,加快智能涌現(xiàn)。

這條"技術(shù)平權(quán)化"的道路,我們并不陌生。今年年初,DeepSeek的橫空出世,已經(jīng)為眾多中國大模型頭部玩家們指明了道路。

今年接任螞蟻集團(tuán)CEO的韓歆毅,曾在內(nèi)部技術(shù)日上表達(dá)了螞蟻AI的主張:

“大家說(螞蟻)聚焦AI應(yīng)用,還要不要做基礎(chǔ)大模型,年初討論的時(shí)候我們答案非常堅(jiān)決,一定要,因?yàn)槿绻贏I做服務(wù)和應(yīng)用,就像訓(xùn)練一個(gè)人去做所有的事,追求智能上限,會(huì)讓這個(gè)人更加聰明,能夠做更多、更好的服務(wù)。我們很堅(jiān)定去探索AGI、探索智能上限。”

螞蟻還專門成立了InclusionAI開源組織,建設(shè)了大模型全技術(shù),包含強(qiáng)化學(xué)習(xí)推理框架AReaL、多智能體框架AWorld等,這些技術(shù)也已經(jīng)通過開源、開放合作的形式與行業(yè)共享共建,讓創(chuàng)作者可以交流共創(chuàng)。

能看得出來,相比于登臺唱戲,螞蟻更加愿意把戲臺搭好,AI的基礎(chǔ)設(shè)施鋪設(shè)好,才能吸引更多的人來共建,真正邁向AGI。

連續(xù)發(fā)布兩款萬億參數(shù)模型,螞蟻 AI 來勢洶洶

以上就是連續(xù)發(fā)布兩款萬億參數(shù)模型,螞蟻 AI 來勢洶洶的詳細(xì)內(nèi)容,更多請關(guān)注php中文網(wǎng)其它相關(guān)文章!

最佳 Windows 性能的頂級免費(fèi)優(yōu)化軟件
最佳 Windows 性能的頂級免費(fèi)優(yōu)化軟件

每個(gè)人都需要一臺速度更快、更穩(wěn)定的 PC。隨著時(shí)間的推移,垃圾文件、舊注冊表數(shù)據(jù)和不必要的后臺進(jìn)程會(huì)占用資源并降低性能。幸運(yùn)的是,許多工具可以讓 Windows 保持平穩(wěn)運(yùn)行。

下載
來源:php中文網(wǎng)
本文內(nèi)容由網(wǎng)友自發(fā)貢獻(xiàn),版權(quán)歸原作者所有,本站不承擔(dān)相應(yīng)法律責(zé)任。如您發(fā)現(xiàn)有涉嫌抄襲侵權(quán)的內(nèi)容,請聯(lián)系admin@php.cn
最新問題
開源免費(fèi)商場系統(tǒng)廣告
最新下載
更多>
網(wǎng)站特效
網(wǎng)站源碼
網(wǎng)站素材
前端模板
關(guān)于我們 免責(zé)申明 意見反饋 講師合作 廣告合作 最新更新
php中文網(wǎng):公益在線php培訓(xùn),幫助PHP學(xué)習(xí)者快速成長!
關(guān)注服務(wù)號 技術(shù)交流群
PHP中文網(wǎng)訂閱號
每天精選資源文章推送
PHP中文網(wǎng)APP
隨時(shí)隨地碎片化學(xué)習(xí)
PHP中文網(wǎng)抖音號
發(fā)現(xiàn)有趣的

Copyright 2014-2025 http://ipnx.cn/ All Rights Reserved | php.cn | 湘ICP備2023035733號