阿里推出全新推理模型:僅1/21參數(shù)媲美DeepSeek R1快訊

                  快科技 2025-03-06 09:11
                  分享到:
                  導讀

                  QwQ-32B 在一系列基準測試中進行了評估,QwQ-32B在僅有DeepSeek-R1約1/21參數(shù)量的情況下,測試了數(shù)學推理、編程能力和通用能力。

                  3月6日消息,阿里Qwen團隊正式發(fā)布他們最新的研究成果——QwQ-32B大語言模型。

                  這是一款擁有320億參數(shù)的模型,其性能可與具備6710億參數(shù)(其中370億被激活)的DeepSeek-R1媲美。

                  QwQ-32B在僅有DeepSeek-R1約1/21參數(shù)量的情況下,用強化學習實現(xiàn)了性能上的跨越。

                  此外,阿里還在推理模型中集成了與Agent相關的能力,使其能夠在使用工具的同時進行批判性思考,并根據(jù)環(huán)境反饋調(diào)整推理過程。

                  QwQ-32B 在一系列基準測試中進行了評估,測試了數(shù)學推理、編程能力和通用能力。

                  其中,在測試數(shù)學能力的AIME24評測集上,以及評估代碼能力的LiveCodeBench中,千問QwQ-32B表現(xiàn)與DeepSeek-R1相當,遠勝于o1-mini及相同尺寸的R1 蒸餾模型。

                  同時,在由Meta首席科學家楊立昆領銜的“最難LLMs評測榜”LiveBench、谷歌等提出的指令遵循能力IFEval評測集、由加州大學伯克利分校等提出的評估準確調(diào)用函數(shù)或工具方面的BFCL測試中,千問QwQ-32B的得分均超越了DeepSeek- R1。

                  目前,QwQ-32B已在Hugging Face和ModelScope開源,大家也可通過Qwen Chat直接進行體驗!(隨心)

                  QwQ- 能力 模型 推理 進行
                  分享到:

                  1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉載的稿件都會明確標注作者和來源;
                  2.TMT觀察網(wǎng)的原創(chuàng)文章,請轉載時務必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或將追究責任;
                  3.作者投稿可能會經(jīng)TMT觀察網(wǎng)編輯修改或補充。