AI 的「精算時代」正式開啟,英偉達打響第一槍
在 AI 領域,小型模型正迎來屬于它們的高光時刻。從 MIT 子公司 Liquid AI 發(fā)布的可裝入智能手表的新 AI 視覺模型,到能在谷歌智能手機上運行的模型,小型化、高效化已成為顯著趨勢。而如今,英偉達也強勢加入這一浪潮,帶來了全新的小語言模型(SLM)——Nemotron - Nano - 9B - v2。這款模型不僅在選定基準測試中達到同類最高性能,更具備讓用戶自由開啟和關閉 AI “推理” 的獨特能力,為 AI 應用開辟了新的想象空間。
“小” 模型從邊緣玩具到生產(chǎn)主力
過去三個月,AI 圈的 “迷你軍團” 接連亮劍,掀起了一場無聲的革命。MIT 子公司 Liquid AI 推出的視覺模型,小巧到能輕松裝入智能手表,讓可穿戴設備的智能體驗邁入新臺階;谷歌則將 Gemini-Nano 成功塞進 Pixel 8 手機,讓移動端 AI 能力實現(xiàn)質的飛躍;而今,英偉達帶著 90 億參數(shù)的 Nemotron-Nano-9B-v2 登場,將其部署在單張 A10 GPU 上,再次刷新了人們對小型模型的認知。
這絕非一場 “小而美” 的技術炫技,而是一次對成本、效率與可控性的精準平衡實驗。正如英偉達 AI 模型后訓練主管 Oleksii Kuchiaev 在 X 上直言:“120 億參數(shù)精簡到 90 億,就是專門為了適配 A10—— 那可是企業(yè)部署中最常見的顯卡。”
一句話:參數(shù)大小不再是衡量模型優(yōu)劣的 KPI,投資回報率(ROI)才是硬道理。
把思維鏈條做成可計費功能
傳統(tǒng)大模型的 “黑盒思維” 一直是企業(yè)使用的痛點 —— 一旦觸發(fā)長時間推理,token 賬單就如同脫韁野馬般失控。而 Nemotron-Nano-9B-v2 給出的解法簡單直接且高效:
在 prompt 中加入 /think,模型便會啟用內(nèi)部思維鏈,像人類思考一樣逐步推導;加入 /no_think,則會直接輸出答案,省去中間環(huán)節(jié);系統(tǒng)級的 max_think_tokens 功能,如同 AWS 的 CPU credit 機制,能為思維鏈設定預算,精準控制成本。
現(xiàn)場實測(官方報告)數(shù)據(jù)更能說明問題:
一句話:把「推理」從默認能力變成 可選項,企業(yè)第一次可以像買云硬盤一樣,按思考深度付費。
Transformer 的「省油」補丁
為何 9B 模型能在長上下文里打平 70B?答案藏在 Mamba-Transformer 混合架構里:
用 Mamba 狀態(tài)空間層替換 70% 的注意力層,顯存占用 ↓ 40%;
序列長度與顯存呈 線性 關系,而非平方爆炸;
128k token 實測吞吐量比同尺寸純 Transformer 高 2.3×。
一句話:Mamba 不是取代 Transformer,而是把它 改造成省油的混動引擎。
商業(yè)核彈:寬松許可證 + 零門檻商用
英偉達此次在許可協(xié)議上的舉措堪稱 “商業(yè)核彈”,做到了 “三不要”:
不要錢:無版稅、無收入分成,企業(yè)無需為使用模型支付額外費用;不要談判:直接下載即可商用,省去了繁瑣的合作洽談流程;不要法務焦慮:僅要求遵守可信 AI 護欄和出口合規(guī),降低了企業(yè)的法律風險。
對比 OpenAI 的分級許可、Anthropic 的使用上限,Nemotron-Nano-9B-v2 幾乎成了 “開源界的 AWS EC2”—— 拿來就能上線賺錢,極大地降低了企業(yè)的使用門檻。
場景切片:誰最先受益?
一句話:任何邊緣/私有化場景,都多了一張「足夠聰明又付得起」的牌。
AI 的「精算時代」正式開幕
過去四年,我們見證了 scaling law 的魔法:參數(shù) × 算力 = 性能。而今天,Nemotron-Nano-9B-v2 用 90 億參數(shù)告訴我們:架構 × 控制 × 許可證 = 可持續(xù)的 AI 經(jīng)濟。
當 Liquid AI 把模型塞進手表,當英偉達把推理做成開關,“小” 不再是技術上的妥協(xié),而是經(jīng)過精打細算后的最優(yōu)解。
下一次融資路演,創(chuàng)業(yè)者們或許不會再說 “我們比 GPT-4 更強”,而是會自信地宣稱:“我們用 1/10 的算力,做出了 90% 的效果,并且還能賺錢。” 這標志著,AI 的 “精算時代” 已正式拉開帷幕。
原文標題 : AI 的「精算時代」正式開啟,英偉達打響第一槍

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字