阿里云開源推理模型QwQ-32B,性能比肩滿血版DeepSeek-R1,通義APP可用快訊

                  TechWeb.com.cn 2025-03-06 12:12
                  分享到:
                  導讀

                  QwQ-32B模型特別針對數學和編程任務進行了 RL 訓練,阿里云開源推理模型QwQ-32B,大規模強化學習(RL)有潛力超越傳統的預訓練和后訓練方法來提升模型性能。

                  【TechWeb】3月6日消息,阿里云開源推理模型QwQ-32B,性能媲美6710 億參數的DeepSeek-R1。據介紹,QwQ-32B是基于Qwen2.5-32B+強化學習煉成,開發者和企業可以在消費級硬件上輕松將其部署到本地設備中。

                  用戶可以通過Qwen Chat(https://chat.qwen.ai)在線體驗訪問。 

                  用戶也可通過通義APP免費體驗最新的千問QwQ-32B模型。

                  目前,QwQ-32B 已在Hugging Face和ModelScope魔搭社區開源,采用了 Apache 2.0 開源協議。

                  所有人都可免費下載模型進行本地部署,或者通過阿里云百煉平臺直接調用模型API服務。

                  對于云端部署需求,用戶可通過阿里云PAI平臺完成快速部署,并進行模型微調、評測和應用搭建;或是選擇容器服務ACK搭配阿里云GPU算力(如GPU云服務器、容器計算服務ACS等),實現模型容器化部署和高效推理。

                  QwQ-32B團隊指出,大規模強化學習(RL)有潛力超越傳統的預訓練和后訓練方法來提升模型性能。近期的研究表明,強化學習可以顯著提高模型的推理能力。例如,DeepSeek R1 通過整合冷啟動數據和多階段訓練,實現了最先進的性能,使其能夠進行深度思考和復雜推理。

                  最新的推理模型 QwQ-32B,是一款擁有320億參數的模型,其性能可與具備 6710 億參數(其中 370 億被激活)的 DeepSeek-R1 媲美。

                  QwQ-32B 在一系列基準測試中進行了評估,測試了數學推理、編程能力和通用能力。以下結果展示了 QwQ-32B 與其他領先模型的性能對比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 以及原始的 DeepSeek-R1。

                  QwQ-32B 模型表現出色,幾乎完全超越了OpenAI-o1-mini,比肩最強開源推理模型DeepSeek-R1:在測試數學能力的AIME24評測集上,以及評估代碼能力的LiveCodeBench中,千問QwQ-32B表現與DeepSeek-R1相當,遠勝于o1-mini及相同尺寸的R1蒸餾模型;在由Meta首席科學家楊立昆領銜的“最難LLMs評測榜”LiveBench、谷歌等提出的指令遵循能力IFEval評測集、由加州大學伯克利分校等提出的評估準確調用函數或工具方面的BFCL測試中,千問QwQ-32B的得分均超越了DeepSeek-R1。

                  QwQ-32B團隊表示,這一成果突顯了將強化學習應用于經過大規模預訓練的強大基礎模型的有效性。此外,研發團隊還在QwQ-32B推理模型中集成了與 Agent 相關的能力,使其能夠在使用工具的同時進行批判性思考,并根據環境反饋調整推理過程。

                  據介紹,在初始階段,QwQ-32B模型特別針對數學和編程任務進行了 RL 訓練。與依賴傳統的獎勵模型(reward model)不同,通過校驗生成答案的正確性來為數學問題提供反饋,并通過代碼執行服務器評估生成的代碼是否成功通過測試用例來提供代碼的反饋。隨著訓練輪次的推進,這兩個領域中的性能均表現出持續的提升。在第一階段的 RL 過后,增加了另一個針對通用能力的 RL。此階段使用通用獎勵模型和一些基于規則的驗證器進行訓練。最后發現,通過少量步驟的通用 RL,可以提升其他通用能力,同時在數學和編程任務上的性能沒有顯著下降。(果青)

                  模型 QwQ- 推理 進行 能力
                  分享到:

                  1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
                  2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
                  3.作者投稿可能會經TMT觀察網編輯修改或補充。