在人工智能領(lǐng)域,開源模型與閉源模型的競爭愈發(fā)激烈。近期,DeepSeek憑借新發(fā)布的兩款模型——DeepSeek V3.2和DeepSeek-V3.2-Speciale,再次成為行業(yè)焦點(diǎn)。這兩款模型不僅在性能上與國際頂尖閉源模型展開正面交鋒,更在技術(shù)路徑上展現(xiàn)出獨(dú)特創(chuàng)新。
DeepSeek V3.2在基準(zhǔn)測試中展現(xiàn)出與GPT-5相當(dāng)?shù)膶?shí)力,而其高性能版本V3.2-Speciale更是在多項(xiàng)評測中超越GPT-5,與谷歌Gemini系列形成分庭抗禮之勢。值得關(guān)注的是,該模型在國際數(shù)學(xué)奧林匹克(IMO 2025)和中國數(shù)學(xué)奧林匹克(CMO 2025)等權(quán)威賽事中斬獲金牌,驗(yàn)證了其在復(fù)雜推理任務(wù)上的突破性進(jìn)展。這是DeepSeek今年第九次發(fā)布新模型,盡管備受期待的R2版本尚未亮相,但此次技術(shù)更新已引發(fā)行業(yè)廣泛關(guān)注。
技術(shù)團(tuán)隊(duì)通過論文披露了核心創(chuàng)新:稀疏注意力機(jī)制(DSA)的正式應(yīng)用成為關(guān)鍵突破。該機(jī)制通過為模型構(gòu)建"智能目錄",將計算資源聚焦于關(guān)鍵信息關(guān)聯(lián),顯著提升長文本處理能力。傳統(tǒng)模型在處理長句子時,計算量會隨文本長度呈平方級增長,而V3.2通過動態(tài)劃分注意力范圍,使推理成本保持穩(wěn)定。實(shí)驗(yàn)數(shù)據(jù)顯示,當(dāng)輸入文本長度增加時,V3.2的推理成本增幅明顯低于前代模型,展現(xiàn)出卓越的效率優(yōu)勢。
后訓(xùn)練階段的強(qiáng)化學(xué)習(xí)策略構(gòu)成另一重要創(chuàng)新。研究團(tuán)隊(duì)設(shè)計了一套新型訓(xùn)練協(xié)議,投入超過總訓(xùn)練算力10%的資源進(jìn)行專項(xiàng)優(yōu)化。這種"名師輔導(dǎo)班"式的訓(xùn)練模式,有效彌補(bǔ)了開源模型在復(fù)雜任務(wù)處理上的短板。特殊版本V3.2-Speciale更取消了傳統(tǒng)模型對思考長度的限制,鼓勵模型進(jìn)行深度推理,從而在需要多步驟邏輯的任務(wù)中表現(xiàn)出色。
在智能體能力建設(shè)方面,DeepSeek構(gòu)建了包含2.4萬余個真實(shí)代碼環(huán)境、5萬余個搜索任務(wù)和4千余個合成場景的虛擬訓(xùn)練環(huán)境。團(tuán)隊(duì)重點(diǎn)優(yōu)化了工具調(diào)用流程,使模型在連續(xù)任務(wù)中保持推理連貫性。改進(jìn)后的系統(tǒng)將工具調(diào)用記錄完整保留在上下文中,避免重復(fù)構(gòu)建推理鏈,顯著提升了復(fù)雜任務(wù)處理效率。這種設(shè)計特別適用于需要多步驟交互的場景,如代碼調(diào)試或信息檢索。
盡管取得顯著進(jìn)步,DeepSeek團(tuán)隊(duì)在論文中坦誠指出模型存在的不足。測試數(shù)據(jù)顯示,V3.2-Speciale在解答復(fù)雜問題時需要消耗更多token,其token使用量較Gemini 3 Pro高出近60%。不過從成本角度看,DeepSeek仍保持顯著優(yōu)勢——相同任務(wù)下,其費(fèi)用僅為谷歌模型的二十分之一。這種"效率優(yōu)先"的技術(shù)路線,與行業(yè)巨頭依賴算力堆砌的模式形成鮮明對比。
DeepSeek的技術(shù)演進(jìn)路徑,與OpenAI前首席科學(xué)家Ilya Sutskever的觀點(diǎn)不謀而合。這位AI領(lǐng)域權(quán)威專家近期指出,單純擴(kuò)大模型參數(shù)規(guī)模已非可持續(xù)發(fā)展方向。他回顧深度學(xué)習(xí)發(fā)展史強(qiáng)調(diào),AlexNet僅用兩塊GPU,早期Transformer實(shí)驗(yàn)規(guī)模多在8-64塊GPU范圍內(nèi)。DeepSeek的技術(shù)實(shí)踐印證了這種判斷——從MoE架構(gòu)到稀疏注意力機(jī)制,其創(chuàng)新始終聚焦于算法效率提升而非參數(shù)規(guī)模擴(kuò)張。這種技術(shù)路線選擇,為資源有限的研發(fā)團(tuán)隊(duì)提供了重要參考范本。















