稀宇科技近日宣布了一項重大計劃,將在未來五天內連續發布一系列重要更新。首當其沖的是開源其首個推理模型——MiniMax-M1,這一消息引起了業界的廣泛關注。
MiniMax-M1被標榜為世界上首個開源的大規模混合架構推理模型,稀宇科技對其性能贊譽有加。據官方介紹,M1在面向生產力的復雜場景中表現出色,其能力在開源模型中名列前茅,甚至超越了國內的閉源模型,接近海外的最頂尖水平。同時,M1還具備業內最高的性價比,為用戶提供了高效且經濟的解決方案。
M1的兩大技術創新是其高效訓練過程的關鍵。稀宇科技透露,M1僅用了3周時間和512塊H800 GPU就完成了強化學習訓練階段,算力租賃成本僅為53.47萬美元(約合384.1萬元人民幣),遠低于最初的預期。這一高效訓練過程得益于獨創的混合架構和更快的強化學習算法CISPO。
混合架構以閃電注意力機制為主,使得M1在計算長上下文輸入和深度推理時具有顯著優勢。例如,在處理8萬Token的深度推理任務時,M1僅需使用DeepSeek R1約30%的算力。CISPO算法通過裁剪重要性采樣權重來提升強化學習效率,在AIME實驗中表現出比包括字節近期提出的DAPO等算法更快的收斂性能。
在業內主流的17個評測集上,M1的表現同樣令人矚目。特別是在軟件工程、長上下文與工具使用等面向生產力的復雜場景中,M1展現出顯著優勢。在SWE-bench驗證基準上,MiniMax-M1-40k和MiniMax-M1-80k分別取得了55.6%和56.0%的優異成績,雖然略遜于DeepSeek-R1-0528的57.6%,但遠超其他開源權重模型。同時,M1系列在長上下文理解任務中也表現出色,全球排名第二,僅次于Gemini 2.5 Pro。
在代理工具使用場景(TAU-bench)中,MiniMax-M1-40k同樣領跑所有開源權重模型,并戰勝了Gemini-2.5 Pro。值得注意的是,MiniMax-M1-80k在大多數基準測試中始終優于MiniMax-M1-40k,這充分驗證了擴展測試時計算資源的有效性。
稀宇科技還透露,M1的詳細技術報告和完整模型權重可在官方Hugging Face和GitHub賬號上訪問。vLLM和Transformer兩個開源項目也提供了各自的推理部署支持,稀宇科技正與SGLang合作推進更多部署支持。由于M1相對高效的訓練和推理算力使用,稀宇科技在MiniMax App和Web上都保持不限量免費使用,并以業內最低的價格在官網提供API服務。
稀宇科技的這一系列更新無疑為業界帶來了新的活力和機遇。隨著后續更新的陸續發布,我們期待稀宇科技能夠繼續為用戶帶來更多創新和突破。