阿里通義千問近期宣布了一項(xiàng)重大進(jìn)展,正式推出了其最新的推理模型Qwen3-30B-A3B-Thinking-2507。相較于今年4月推出的Qwen3-30-A3B模型,新版本在多個(gè)關(guān)鍵領(lǐng)域?qū)崿F(xiàn)了顯著提升。
在數(shù)學(xué)推理方面,Qwen3-30B-A3B-Thinking-2507在AIME25評(píng)測中取得了85.0的高分,這一成績彰顯了其強(qiáng)大的數(shù)學(xué)解題能力。同時(shí),在代碼能力測試LiveCodeBench v6中,該模型也獲得了66.0的分?jǐn)?shù),兩項(xiàng)核心推理能力均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)。
新模型在知識(shí)水平方面也取得了顯著進(jìn)步。在GPQA和MMLU-Pro等評(píng)測中,Qwen3-30B-A3B-Thinking-2507的表現(xiàn)均優(yōu)于其前身。這意味著它在處理廣泛的知識(shí)性問題時(shí),能夠提供更準(zhǔn)確、更全面的答案。
除了推理能力和知識(shí)水平外,Qwen3-30B-A3B-Thinking-2507在通用能力方面也表現(xiàn)出色。在寫作(WritingBench)、Agent能力(BFCL-v3)、多輪對(duì)話和多語言指令遵循(MultiIF)等評(píng)測中,該模型均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)。這些結(jié)果表明,新模型在處理復(fù)雜、多變的場景時(shí),能夠展現(xiàn)出更高的靈活性和適應(yīng)性。
Qwen3-30B-A3B-Thinking-2507還支持更長的上下文理解。它原生支持256K tokens,并可擴(kuò)展至1M tokens,這在處理大型文本或復(fù)雜對(duì)話時(shí)尤為重要。新模型的思考長度也有所增加,官方建議在處理高度復(fù)雜的推理任務(wù)時(shí),設(shè)置更長的思考預(yù)算以充分發(fā)揮其潛力。
目前,Qwen3-30B-A3B-Thinking-2507已在魔搭社區(qū)和HuggingFace上開源,其輕量級(jí)的設(shè)計(jì)使得消費(fèi)級(jí)硬件也能輕松實(shí)現(xiàn)本地部署。同時(shí),該模型也在Qwen Chat上同步上線,用戶可以直接體驗(yàn)其強(qiáng)大的推理和通用能力。