AI 助手也開始分 " 快慢班 " 了?深度求索的最新動作,揭開了大模型服務分層的一角。
4 月 8 日,深度求索(DeepSeek)在產品端上線了 " 專家模式 ",與原有的 " 快速模式 " 并列。更新后,用戶在網頁輸入框上方能看到兩個圖標:閃電代表 " 快速模式 ",鉆石則對應 " 專家模式 ",兩者定位截然不同。

專家模式則被定位為處理復雜任務的專用通道。它擅長深度思考和復雜求解,可搭配聯網搜索。但為確保算力集中于推理,當前版本暫不支持文件上傳,知識庫截止于 2025 年 5 月和快速模式一致,且在高峰時段可能需要排隊。
使用過程中,專家模式響應會出現卡頓或者服務器繁忙的情況。






這種差異,直接體現了兩種模式背后資源調度的不同優先級。
模式差異的根源,在于底層推理策略與架構優化方向不同。專家模式深度適配 DeepSeek 自研的混合專家模型(MoE)架構,最大化釋放模型的深度推理能力,此次更新也被業內普遍視為下一代旗艦模型 V4 發布前的重要預演。
這種架構通過一個門控網絡,為每個輸入動態選擇一小部分專精于不同任務(如語法分析、代碼生成)的 " 專家 " 子網絡進行計算。其精妙之處在于,模型能保持龐大參數總量(如 DeepSeek-V3 的 6710 億參數),卻僅激活一小部分(如 370 億)來處理特定任務,從而在保持強大能力的同時,大幅提升計算效率。快速模式則可能基于更輕量化或經過不同優化的版本,優先保障響應速度與并發能力。
行業分析認為,雙模式設計是平衡高昂算力與多元需求的必然選擇。將計算密集型任務導向專家模式,日常對話交由快速模式處理,是一種精細化的資源分配策略。這既能為專業場景提供強大能力,又能以較低成本維持海量用戶的日常體驗。
下一代旗艦模型 V4 將在多模態能力上實現突破。不同于當前通過 OCR 間接處理圖像,V4 據稱采用原生多模態架構,能真正同時理解、處理并生成文本、圖像乃至音頻,實現 " 一次輸入,全模態輸出 "。還有 V4 旨在突破現有模型 " 對話關閉即遺忘 " 的限制,通過創新記憶架構,使 AI 能像人類助手一樣記住歷史交互,自主歸納用戶習慣。通過 MoE 架構演進、更智能的稀疏注意力機制,以及深度適配國產算力芯片,DeepSeek 致力于在提升性能的同時大幅降低訓練與推理成本。未來的模型將更擅長自主規劃、調用工具并完成復雜工作流。
因此有行業認為,專家模式對深度思考的側重,正是在為此鋪路。另外,多次被提及的 V4 的多模態能力,在此次更新中一個重要的 "Vision Mode" 并未上線。
值得一提,豆包專家模式 2 月 14 日上線,全能深度智能體,偏綜合辦公 / 多模態 / 工具鏈,強在圖文、文檔、圖表、中文創作、工具內化。雖然都叫 " 專家模式 ",但兩者定位、技術路線、能力長板、使用體驗差異非常大。
同樣的實測,用豆包編寫的模擬球在旋轉六邊形內彈跳的 p5.js 程序,效果及界面內容較為簡單。

來源:星河商業觀察