
9月22日晚間,DeepSeek官方突然發布更新,宣布DeepSeek-V3.1 現已更新至 DeepSeek-V3.1-Terminus 版本。官方表示,此次更新并非簡單例行迭代,而是針對用戶反饋中集中出現的問題進行了改進,在保持原有能力的同時,進一步提升了模型的穩定性與一致性。
消息一經發出,不到一個小時便收獲了一條“10w+”,足以見得行業對于DeepSeek的關注程度與影響力。
然而,市場的熱烈反應背后,也夾雜著一絲失望:備受期待的新一代推理模型DeepSeek-R2再次缺席。這不僅是一次期待的落空,更像是一面棱鏡,折射出這家明星創業公司,從年初以R1模型一鳴驚人,到如今核心產品迭代的持續延遲,在狂飆突進246天后的焦慮、掙扎與抉擇。梁文鋒和他的DeepSeek,正在上演一出中國大模型領域最富戲劇性張力的“現代啟示錄”。
市場預期管理失焦:R2發布如“鏡花水月”
當我們把時間的指針撥回2025 年的早春,彼時,DeepSeek-R1的橫空出世,如同一聲驚雷,在中國乃至全球的AI領域炸響。其卓越的數學與代碼推理能力,不僅在多項基準測試中對標甚至超越了OpenAI的頂尖模型,更重要的是,它以一種徹底開源的姿態,將推理大模型的門檻拉至前所未有的低位。DeepSeek因此一戰成神,成為那個“春節檔”最耀眼的國產AI明星,創始人梁文鋒也被寄予了挑戰硅谷巨頭的厚望。
DeepSeek-R1推出的那一天,就為梁文鋒治下的深度求索,留下了兩個難以抹去的烙印:一是“開源且低成本”成為它的標簽,二是外界由此對其下一步的期待被抬到了很高的位置。

圖說:梁文鋒的低調風格,也讓關于他的寥寥幾張圖片快被網絡“盤”到“包漿”了
然而,輝煌的序章之后,故事的走向卻變得撲朔迷離。行業對下一代推理模型DeepSeek-R2的期待,隨著時間的推移,演變成了一場反復上演的“狼來了”的故事。據大模型之家統計,截至2025年9月23日,距離R1發布已過去整整246天,而關于R2的發布傳言,已不下10次。
這場漫長的“懸念劇”始于2月,路透社首次援引信源,稱R2“最遲5月初發布”,并暗示其在代碼生成和多語言推理上將有重大突破,瞬間點燃了市場的熱情。隨后的幾個月,傳言變得愈發具體和密集。3月,行業內開始流傳“3月17日發布”的精準日期;4月,Hugging Face代碼庫的蛛絲馬跡似乎暗示著即將到來的更新;而到了5月,傳言達到了頂峰,一份詳盡的參數信息在網絡上泄露,直指R2將采用革命性的“Hybrid MoE 3.0”架構,總參數量高達驚人的1.2萬億。
然而,期待中的5月發布會并未如期而至。隨之而來的是更多混雜著失望與猜測的消息。有傳聞稱,發布延期是因為CEO梁文鋒對模型內部測試的性能不甚滿意,認為尚未達到對R1的“碾壓級”優勢。更關鍵的是,來自外部環境的壓力開始顯現——英偉達 H20芯片的供應問題,成為懸在所有中國AI公司頭上的達摩克利斯之劍。
此后的故事線更加曲折。6月,消息稱R2的內部測試結果顯示,其性能提升并未達到顛覆性的程度。7月,萬眾矚目的世界人工智能大會(WAIC 2025)上,DeepSeek的缺席讓R2發布的希望再度落空。8月,關于“月底發布”的傳言再次甚囂塵上,但很快被官方辟謠。直到9月初,彭博社的報道才給出了一個新的時間窗口——計劃于第四季度發布,并將主打當下最熱門的Agent(智能體)能力。
在長達八個多月的時間里,DeepSeek官方始終未公布R2的明確發布計劃。這種反復的傳言與落空,在客觀上造成了市場預期的管理失焦,也消耗了部分用戶的耐心。更重要的是,在DeepSeek等待R2的這段時間,其主要競爭對手,如阿里巴巴的通義千問(Qwen)和百度的文心大模型(ERNIE)等,均已完成了多輪重要的功能迭代和模型升級。
在這場無聲的競賽中,時間的流逝,正在成為DeepSeek最沉重的成本。
延遲的“三重困境”:
開源生態的繁榮與核心產品的缺位
如果僅僅將這八個多月定義為“等待”,那對DeepSeek而言無疑是不公平的。事實上,在R2缺位的日子里,DeepSeek非但沒有停滯,反而在另一個維度上展現出了驚人的能量和戰略遠見。梁文鋒選擇了一條更為艱難但可能也更為長遠的道路——構建一個從底層模型到上層工具鏈完全開源的全棧技術體系。
這是一場圍繞“開源驅動創新”展開的“陽謀”。在核心模型層面,除了打響名聲的推理專用模型DeepSeek-R1,DeepSeek在3月又開源了通用模型V3.0324,其API成本僅為GPT-4的1/14,幾乎是以“傾銷”的方式,將大模型的使用成本打到了“地板價”。隨后,融合了代碼與對話能力的DeepSeek-V2.5,以及多模態文生圖模型Janus-Pro也相繼開源。這一系列組合拳,讓DeepSeek成為了國產AI技術普惠的關鍵推動者之一。
在基礎設施與工具鏈層面,DeepSeek同樣進行了深度布局,開源了一系列旨在提升訓練和推理效率的關鍵組件。例如,針對GPU優化的FlashMLA解碼內核和DeepGEMM矩陣運算庫,官方數據顯示可提升約30%的推理速度;為混合專家(MoE)模型設計的DeepEP通信庫和DualPipe流水線算法,有效降低了分布式訓練的通信延遲;而名為3FS的超高速分布式文件系統,則為大模型訓練提供了高效的數據讀寫支持。
尤為關鍵的是,DeepSeek的開源并非僅僅停留在代碼層面。他們敏銳地捕捉到了國產算力崛起的趨勢。其開源的工具鏈不僅支持主流的英偉達GPU,還同步推出了適配華為昇騰平臺的解決方案(如MindIE鏡像)。這一舉措有助于推動國產AI算力在實際應用場景中的落地,具有重要的產業價值。龐大的開源體系為DeepSeek帶來了正向的生態循環。全球開發者基于其模型進行量化(如INT8/INT4版本),降低了部署成本,并圍繞醫療、金融等垂直行業進行微調,豐富了應用場景。
然而,這耀眼的A面,卻無法掩蓋其B面深刻的隱憂。R2的遲遲未能發布,正是這些隱憂的集中體現。DeepSeek-R2的推遲,至少面臨著三重困境。

首先是技術突破與算力供應的核心矛盾。據英國《金融時報》等媒體報道,R1發布后,DeepSeek在相關方面的鼓勵下,曾嘗試使用華為昇騰芯片進行下一代模型的訓練。然而,從英偉達的CUDA生態遷移到昇騰的CANN生態,其難度遠超預期。訓練過程中的不穩定和性能瓶頸,嚴重拖慢了研發進度,甚至一度迫使團隊將關鍵訓練任務切回NVIDIA平臺。這場“算力長征”的艱難,或許是導致R2延期的最直接、最核心的技術因素。
其次,資本的狂熱與市場的超高預期,放大了傳言的傳播效應,也給DeepSeek戴上了沉重的“枷鎖”。R1的成功讓DeepSeek成為了資本市場的寵兒,估值水漲船高。每一次關于R2的傳言,都能在資本市場掀起波瀾。這種高度關注,既是動力也是壓力,它迫使DeepSeek必須拿出一款超越性的產品,任何一點瑕疵都可能被無限放大,從而導致團隊在發布決策上慎之又慎。
最后,在激烈的行業競爭與中美技術角力的背景下,構成了R2發布最嚴峻的外部壓力。在國內,阿里、百度等巨頭憑借強大的資源整合能力,在模型迭代、產品落地和生態構建上步步緊逼。在國際上,美國對先進AI技術的出口管制日益收緊。DeepSeek既要面對國內市場的“內卷”,又要應對國際環境的“脫鉤”風險,其戰略選擇空間正變得越來越狹窄。
DeepSeek與梁文鋒面臨的“三重挑戰”
當前,DeepSeek及其創始人梁文鋒正不得不面臨著來自技術、戰略和市場三個層面的嚴峻挑戰,這種局面使其在后續發展路徑的選擇上變得異常艱難。
第一重挑戰,是如何在技術上實現自我超越,即“創新者的窘境”。DeepSeek-R1在推理能力上的突出表現,已經為公司樹立了極高的技術標桿。這意味著R2必須在性能上實現質的飛躍,而非簡單的參數提升或常規優化,才能滿足市場的期待。
如果R2的提升幅度有限,很可能會面臨類似于今年GPT-5發布后,行業普遍認為其創新力度不足的評價。對于一家以技術驅動的創業公司而言,這種來自內部的、超越自我的壓力,是其決策過程中必須考慮的首要因素。
第二重挑戰,是公司在技術路線上的戰略短板,特別是在多模態能力上的“缺位”。當前,全球頂尖大模型的發展趨勢已明確指向文本、圖像、音頻、視頻等多模態能力的融合。無論是通過多模型能力調用協議(MCP)整合不同模型,還是發展原生的多模態大模型,都已成為行業共識。
相比之下,DeepSeek至今發布和開源的模型仍主要集中在文本和代碼領域,旗下多模態文生圖模型Janus-Pro并未在行業掀起波浪。這種技術路線上的單一性,可能會使其在未來以多模態為核心的應用場景競爭中處于不利地位,限制其生態的廣度和商業化的想象空間。
而國內的另一家大模型公司MiniMax為例,則走向了另一個極端:其從創業初期就專注于多模態技術,并已推出了成熟的產品,但囿于當前主流大模型能力評估體系,仍以語言模型為基準。這使得 Minimax 在模型排名、社區認可度、學術引用等“行業標尺”上較為邊緣,其開源的大模型 MiniMax-M1,在Hugging Face等平臺的活躍度遠低于DeepSeek。此外,其主打的線性注意力機制與混合專家系統(MoE)雖然理論上具備效率優勢,但在實踐中尚未充分驗證其長期可控性和泛化能力,也讓MiniMax 40億美元估值屢遭質疑。
第三重挑戰,是需要面對DeepSeek面臨的生態問題。自今年年中開始,網絡中關于“DeepSeek變笨了”的討論不絕于耳,調查發現雖然R1模型在數學推理上表現優異,但在涉及創意、事實性內容時卻頻繁出現“幻覺”。
而這背后,正揭示出DeepSeek在內容生態上的“先天”短板。大型科技公司如百度、字節跳動等,其優勢不僅僅在于資金和技術,更在于其龐大的流量入口和內容生態系統。例如,百度擁有搜索、貼吧、文庫等一系列產品,而字節跳動則有抖音、今日頭條、西瓜視頻等。這些平臺不僅為用戶提供了穩定的流量入口,更重要的是,在用戶與內容交互的過程中,源源不斷地產生著最新的、鮮活的數據。這些數據經過清洗和處理,可以持續地為大模型提供高質量的訓練語料,形成一個良性的“數據飛輪”——模型越好,用戶越多,產生的數據越新,模型迭代越快。
DeepSeek目前并不具備這樣的內容生態優勢。其模型能力的提升,更多依賴于外部公開數據集和合作方提供的數據,缺乏像百度、字節那樣自有的、能夠實時更新的“活水”。當模型在訓練過程中無法有效甄別和清洗受污染的語料時,就可能導致“幻覺”現象的加劇。這種“幻覺”,不僅僅是簡單的信息編造,更可能表現為邏輯混亂、事實錯誤,甚至答非所問,這無疑嚴重影響了用戶的信任感和使用體驗。對于一個致力于商業化的大模型來說,用戶信任是其產品生命線的基石,而“幻覺”問題,恰恰是橫亙在其商業化路徑上的一大障礙。
寫在最后
因此,對于梁文鋒而言,是如何平衡內部研發節奏與外部市場競爭的壓力。R2的延遲發布,為競爭對手提供了追趕和反超的時間窗口。在快速變化的大模型市場,技術領先的優勢稍縱即逝。梁文鋒必須在“追求技術極致”與“搶占市場時機”之間做出權衡。
發布一個性能未達內部最高標準但能及時卡位市場的產品,還是繼續打磨一個可能錯過最佳發布窗口的“完美”產品,這是一個艱難的戰略抉擇。同時,疊加算力遷移帶來的工程挑戰,使得這一決策過程變得更加復雜。
不可否認,DeepSeek-R1的發布對行業產生了深遠影響。它不僅證明了國內團隊在核心推理模型領域的研發實力,更重要的是,其開源策略極大地降低了AI技術的應用成本,打破了海外少數廠商在高端模型領域的壟斷,為推動整個行業的創新和普及做出了重要貢獻。
在大模型之家看來,DeepSeek當前所面臨的困境,并非個例,而是國內頂尖AI公司在向更高技術水平邁進過程中普遍面臨的挑戰縮影。市場期待R2的最終發布,不僅是期待一款性能更強的模型,也是在觀察DeepSeek如何在技術瓶頸、戰略短板和激烈競爭的多重壓力下,給出自己的解決方案。DeepSeek和梁文鋒給出的答案,也將對國內其他AI公司的發展路徑提供重要的參考和啟示。
原創:何煦,來源: 大模型之家