
騰訊集團高級執行副總裁、云與智慧產業事業群CEO 湯道生
速途網3月19日消息(報道:李楠)今日,2025騰訊全球數字生態大會上海峰會召開,騰訊集團高級執行副總裁、云與智慧產業事業群CEO湯道生,詳細解讀了騰訊最新的AI大模型戰略。
他表示,隨著DeepSeek的開源與深度思考的突破,AI大模型正跨過產業化落地的門檻,站上普及應用的全新節點。騰訊將立足用前沿的技術,打造“好用的AI”,為用戶提供有實效、有溫度、可進化的智能產品和解決方案,助力大家的美好生活,推動實體產業創新突破。
多模驅動,全力夯實大模型底座
“大模型技術是智能AI應用的基礎。”湯道生表示,騰訊一方面堅定不移的推進大模型的全鏈路自研,另一方面,也積極擁抱先進的開源模型,讓用戶針對不同場景自由選擇,滿足各自對場景與性價比的要求。
2023年,騰訊推出了騰訊混元大模型,率先采用MoE架構,旗艦模型參數規模達萬億級,各項能力穩居國內第一梯隊。最近又推出新一代快思考模型混元Turbo S,對大多數通用任務,實現“秒級響應”,首字時延降低近一半。此外,更擅長完成復雜任務、深度推理的混元T1模型,也即將推出正式版。
針對開源模型,騰訊一直保持開放兼容的態度。春節過后,用戶迫切期望用到深度推理能力,騰訊就快速響應用戶需求,無論是面向C端的騰訊元寶、微信搜一搜、ima、地圖等應用,還是面向開發者的大模型知識引擎、CloudStudio、騰訊云AI代碼助手等平臺工具,都支持騰訊混元和DeepSeek的“雙模調用”。
用戶優先,打造高可用智能產品
“大模型是AI應用的核心,但好的模型還需要搭配實用的場景、權威的內容來源、穩定的算力服務,才能在用戶需要的時候,提供可靠的AI服務。”湯道生表示。
比如騰訊元寶,近期在應用市場快速崛起,正是得益于騰訊云智算強大的算力支撐與海量的運維經驗,使得用戶使用的時候流暢 “不卡頓”。同時,疊加了自身積累多年的多模態能力,元寶能夠對用戶發送的圖片做分析理解與優化處理。
除此之外,元寶還利用了全網最優質的微信公眾號內容,以及強大的“聯網搜索”能力,確保了檢索和生成結果的質量和時效性。最近,它還與騰訊文檔打通,用戶可以直接上傳騰訊文檔到元寶,也能一鍵導出對話到騰訊文檔,極大方便用戶使用。
在大模型產品化的過程中,知識庫至關重要。湯道生認為,模型是“大腦”,知識庫是“課本”,“大腦智商再高,如果沒有學過相應的知識,也無法很好地解決問題。”
他講到,元寶與微信公眾號內容的融合,就是將大模型與公網知識庫結合,基于類似的原理,騰訊推出了智能工作臺ima,將模型與個人知識庫融合,助力高效的工作和學習;企業同樣可以將大模型與企業知識庫結合,打造更懂業務的AI,讓AI助力營銷、客服和研發,提高市場競爭力。比如最近,騰訊樂享就上線了AI知識庫功能,將深度思考與企業專屬知識結合,獲得了更強大的智能問答能力,為企業縮短了新員工培訓的時間,提高了員工專業水平、客戶的滿意度以及銷售轉化率。
扎根產業,全鏈路支撐AI落地提效
當前,還有很多企業,對大模型有定制化的使用需求,湯道生表示,騰訊也會提供從算力到模型部署、產業落地的全鏈路支持,幫助企業結合自身場景與數據,訓練自己的行業大模型,打造企業級的AI中臺,讓數據可以統一管理與復用,支撐在生產、銷售和服務等環節的智能應用。
比如,騰訊云TI平臺能夠幫助開發人員一站式完成混元、DeepSeek、Llama等主流模型的精調與推理,覆蓋數據獲取、處理、模型訓練、評估、部署到應用的全流程,數據標注成本下降70%,模型訓練效率提升30%,同時支持公有云、私有云及專屬云部署。
騰訊云大模型知識引擎也通過提供RAG(文件檢索)、Workflow(工作流)、Agent等多種應用開發方式,加速大模型應用的落地。“企業可以獲得穩定和精確的多模態知識問答效果,也可以用拖拉拽的簡單方式,編排企業專屬的工作流,快速搭建符合實際場景需要的大模型應用。”
另外在算力層面,騰訊云通過整合高性能計算、存儲、網絡、加速套件、云原生智能調度編排等能力,推出了騰訊云智算套件。模型訓練的千卡日均故障率,僅為業界水平的三分之一;千卡集群訓練的并行加速比達到96%,通信時間占比縮短到6%。此外,通過軟硬件技術能力的整合,騰訊云智算集群從機器上架到開始訓練,最快只需要1天。
據了解,目前騰訊云大模型已在政務、零售、金融、工業、醫療、教育、文旅等30多個行業落地,助力各行各業打造新質生產力,以智能化實現增長突破。