記者 董溫淑
編輯 高宇雷
Qwen 3模型即將發布的消息,已經流傳了一個月的時間;特別是最近一周內,坊間對Qwen 3的猜測不斷在“憋個大的”與“最終難產”之間反復橫跳。
直到4月29日凌晨,這款備受關注的模型終于亮相,號稱全面超越DeepSeek R1。
杭州一家中廠的算法從業者告訴「電廠」:“近幾個月網上不少DeepSeek R2的泄露信息,有人說R2要在5月份發。Qwen 3(這個時間發布)肯定是想搶個先機。”
在一家國產大模型開放平臺工作的劉露則透露,其所在的團隊提前不到12小時獲知Qwen3的發布消息,團隊成員連夜完成了Qwen 3系列模型在該平臺的部署上線。
無論如何,Qwen 3的亮相都意味著開源AI大模型的技術能力再次被刷新;與之相繼的,將是產業鏈下游應用者迎來一次新的生態選擇。
「電廠」注意到,Qwen 3發布僅10小時,已經有開發者發布了套殼Qwen 3系列模型的ChatBot類產品。
基于Qwen 3的第三方ChatBot類產品,圖源/網絡 ?
國內首個混合推理模型,成本/性能超越DeepSeek R1
根據阿里云通義千問團隊官宣,Qwen3系列開源了8個模型,其中包含2個MoE(混合專家)大模型和6個Dense(稠密)大模型。
本次Qwen3系列模型尤為值得關注的創新是該模型支持思考模式、非思考模式兩種運行方式。
在思考模式下,模型會逐步推理,經過深思熟慮后給出最終答案。這種方法適合需要深入思考的復雜問題;在非思考模式中,模型會提供快速、近乎即時的響應,適用于對速度要求高于深度的簡單問題。
換句話說,Qwen3打破了DeepSeek R1等思維鏈模型慢思考的單一模式,而是為用戶賦予靈活選擇的權利。這也是如今全球大模型市場發展的重要方向之一。
不同Benchmark下Qwen3兩種思考模式對比,圖源/阿里云通義 ?
今年2月份,由部分OpenAI前員工創辦的Anthropic在全球范圍內率先發布了名為Claude 3.7 Sonnet的混合推理模型,被視為融合了DeepSeek V3(適于通用任務)與R1(適于推理任務)模型的各自優勢。
這種混合模式引起了業界的廣泛關注。OpenAI創始人Sam Altman就曾表示,OpenAI接下來將研發“它能夠知道什么時候應該長時間思考,并且通常適用于廣泛任務”的模型。而Qwen3是國內首個混合推理模型。
性能及成本優化方面,Qwen3系列也表現驚人。
比如本次開源的兩個MoE模型,權重分別為Qwen3-235B-A22B,是一個擁有 2350 多億總參數和220多億激活參數的大模型;另一個為Qwen3-30B-A3B,一個擁有約300億總參數和30億激活參數的小型MoE模型。
MoE(混合專家模型)混合包含多個專家網絡,每個專家通常是一個子模型、也可以是神經網絡的一個子模塊,擁有不同的能力或專長,能夠處理不同類型的輸入數據。在運行時,不同任務會被進行分類、輸送到相應的“專家”處進行解決。
DeepSeek V3與R1都屬于MoE模型。這種架構的優勢是其能夠,并且在解決任務時僅調動與之相應的模塊、節省計算成本。這也是“AI界拼多多”DeepSeek提升性價比的殺手锏之一。作為與Qwen3的對比,DeepSeek V3與R1總參數規模為6710億參數,激活參數為370億。
性能方面,官方信息顯示,Qwen旗艦模型 Qwen3-235B-A22B 在代碼、數學、通用能力等基準測試中,與 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等頂級模型相比,均展現出優勢。
小型MoE模型Qwen3-30B-A3B ,相比DeepSeek V3、GPT 4o、谷歌Gemma3-27B-1T等模型同樣表現優異。
六個開源的Dense模型均適用于通用任務解決,包括Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B 和 Qwen3-0.6B。
值得一提的是參數量極低的Qwen3-4B模型,也在不少任務中展現出來相比GPT 4o更為優異的成績。
上述模型均在 Apache 2.0 許可下開源。這是一種較為寬松的許可證,允許代碼修改和再發布(作為開源或商業軟件)。
Qwen3模型還支持 119 種語言和方言,并優化了Agent和代碼能力、加強了對MCP的支持。
開源大模型“城頭變換大王旗”
Qwen3的發布,距離DeepSeek R1的亮相已過去了3個多月。
1月20日,憑借比肩OpenAI o1的性能、低廉的成本,以及對大模型研發范式的改變,R1一經發布就榮膺開源大模型世界的“無冕之王”至今。
在此期間,包含科大訊飛(星火X1)、百度(文心X1)、OpenAI(o3 mini)、阿里(Qwen-QwQ-32B)、字節(豆包1.5深度思考)在內的玩家紛紛下場推理模型,但至多是接近R1性能或實現部分超越,未能真正挑動后者的位置。
在大模型的世界里,數月的時間已足夠一代新王換舊王。正是這樣的背景下,關注的目光落到了Qwen3身上。
與許多國內玩家不同的是,早在2024年8月,阿里就公開站到了開源自研模型的大廠陣營之中。在這條最終被DeepSeek驗證可行的市場之路上,Qwen可以說已經提前拿到了不少牌。
至今Qwen系列產品已在不少開源榜單中排名靠前。如據全球最大AI開源社區Huggingface 4月29日顯示,在audio-text-to-text任務類目下,Qwen的兩款模型熱度居前。
Huggingface 于2月10日發布的開源大模型榜單“Open LLM Leaderboard”也顯示,排名前十的開源大模型全部是基于Qwen開源模型二次訓練的衍生模型。
圖源/Huggingface ?
在生態活躍度方面,Qwen也處于全球前列。據官方數據顯示,從2024年下半年開始至2025年1月底,基于Qwen系列的衍生模型數量超過了美國Llama系列,超過9萬個,已是全球最大的AI模型家族,超過了Meta 旗下的Llama家族。
不過對比Llama系列,Qwen系列開源模型在下載量方面與前者仍有差距。據Meta首席執行官Zuck Burg在今年3月份宣布,Llama的下載量已達到10億次;而Qwen系列的下載量還在千萬級別。
在Qwen3發布這一天,周靖人接受了“晚點”的采訪,他講道,判斷“開源生態跑出來了”的指標主要有兩點“一是看開發者的選擇,二是看性能指標”。
本次隨著Qwen3的發布,這款新模型通過在性能指標和成本方面超越DeepSeek R1,以及創新的混合推理模式,登頂為全球最強大的開源大模型,又為Qwen增添了一張好牌。
但在這之后,還有更多的挑戰等待著它。接下來DeepSeek R2的亮相,也將為整個市場增添新的變數。
在貫徹“第一通吃(winner-takes-all)”定律的開源市場,競爭遠未到達終局、誰能成為最終的“winner”還充滿未知,無論是DeepSeek,還是Qwen和Llama,都仍需要為不下牌桌而持續努力。
不過值得欣慰的是,雖然戰程未半,至少當下的開源大模型“桂冠”仍歸屬于國產玩家。
(注:文中劉露為化名)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.