專訪曦望王湛:AI推理時代來臨,成本為王,曦望如何破局算力紅海?

   時間:2026-04-23 21:48 來源:快訊作者:孫雅

在AI算力競爭日益激烈的當下,一家專注于推理GPU的初創企業曦望,憑借其獨特的技術路線和市場策略,迅速崛起為行業焦點。短短一年多時間內,該公司已完成七輪融資,累計金額達40億元,并在最新一輪融資中以10億元創下國內該賽道最大單筆融資紀錄,估值突破百億,成為國內首家純推理GPU領域的獨角獸企業。

曦望的快速崛起,源于其對AI算力需求結構性變化的精準判斷。公司聯席CEO王湛指出,隨著Agent技術的普及,AI應用場景正從單一對話向復雜任務執行轉變,高頻、多輪的交互模式導致推理算力需求呈現指數級增長。數據顯示,2026年AI推理計算的需求量將達到訓練算力的4-5倍,這一趨勢徹底顛覆了此前市場對大模型參數量和訓練集群規模的關注焦點。

“單位Token成本已成為決定AI應用普及的關鍵因素。”王湛以海外用戶與AI交互產生高額費用為例,強調降低推理成本的技術緊迫性。他表示,當企業從關注模型“能否用”轉向“好不好用”和“用不用得起”時,推理算力的性價比優勢便凸顯出來。這一判斷與英偉達在GTC大會上強調“每瓦Token吞吐量”的策略不謀而合,也解釋了國內云廠商近期頻繁調整算力價格的商業邏輯。

曦望的技術路線堪稱激進——完全放棄訓練能力,將全部資源投入推理場景優化。其最新發布的啟望S3芯片通過裁剪訓練相關模塊,使單位面積有效算力效率提升5倍以上,目標是將百萬Token成本壓至一分錢。在架構設計上,S3針對Agent時代的痛點進行了深度定制:計算層通過專用AI Core架構將核心算子利用率提升至接近100%,并支持全鏈路低精度運算;系統層則成為國內首個采用LPDDR6顯存和PCIe Gen6接口的推理GPU,顯存容量接近600GB,系統帶寬翻倍,有效解決了長上下文記憶的瓶頸問題。

“GPU效能的發揮需要全棧協同。”王湛透露,曦望的硬件和軟件均實現100%自研,這使得公司能夠基于前沿技術進行深度優化。例如,通過自主開發的仿真驗證工具,團隊在芯片流片前已完成海量算子的模擬運行,確保一次性流片成功。這種工程化能力在國產GPU企業中極為罕見,也為S3芯片的快速迭代提供了保障。

在生態兼容性方面,曦望選擇了“通用架構+自主底層”的平衡路線。公司通過自研代碼實現了對CUDA生態99%以上的兼容,既降低了客戶遷移成本,又守住了技術自主權。王湛認為,通用計算架構(GPU)比專用架構(ASIC)更能適應Agent時代的多樣化需求,而兼容CUDA則是實現商業化的必要條件。

曦望的團隊構成堪稱“豪華陣容”:董事長徐冰作為商湯聯合創始人,負責戰略與融資;聯席CEO王勇擁有20余年半導體經驗,主導芯片研發;王湛則憑借互聯網大廠的商業化經驗,操盤運營與市場。三位核心成員與400余人的研發團隊(占比超80%)形成“六邊形戰士”網絡,核心成員平均行業經驗超過15年,來自英偉達、AMD、華為海思等頂尖企業。

為吸引人才,曦望在組織機制上做出大膽創新:設立中國GPU企業中最大的員工持股計劃(ESOP)池。王湛表示,這種類似于早期華為、阿里的分享機制,有效激發了團隊的戰斗力。“只有讓人才分享成功,才能打造真正有競爭力的產品。”

面對當前AI資本熱潮,曾親歷2000年互聯網泡沫的王湛保持清醒。他以ChatGPT用戶增長速度為例,指出AI與當年互聯網的本質區別:前者正以遠超產業革命的速度創造基礎價值,需求瓶頸主要來自生產工具而非市場本身。“只要體驗提升,需求就會暴漲。”曦望將互聯網大廠作為首要目標客戶,通過嚴苛需求打磨產品,計劃依托S3的交付能力和生態布局,在算力紅海中建立競爭優勢。

“AI的本質是分發智能,抹平信息鴻溝。”王湛最后表示,曦望的使命是通過技術突破降低AI使用門檻,讓智能真正惠及所有人。這種理念不僅體現在產品設計中,也貫穿于公司的每一個決策環節。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號