華為近日邁出了其在人工智能領域的一大步,正式對外宣布將開源其盤古系列的兩大模型及推理技術。這一舉措不僅標志著華為在昇騰生態戰略上的又一重要實踐,更為大模型技術的深入研究和創新發展注入了新的活力。
具體而言,華為此番開源的模型包括一個擁有70億參數的稠密模型,以及一個采用了混合專家架構(MoE)的盤古Pro MoE模型,該模型參數規模高達720億。盤古Pro MoE模型通過創新的動態路由機制,實現了計算資源的合理分配,從而在保持模型規模的同時,顯著提升了推理效率。
值得注意的是,華為此次開源的不僅僅是模型本身,還包括了基于昇騰AI平臺的專用推理優化技術。這一技術的加入,無疑將為開發者提供更加高效、便捷的模型部署方案。據悉,盤古Pro MoE 72B模型的權重和基礎推理代碼已經上線至開源平臺,而針對超大規模MoE模型的昇騰優化推理代碼也將在不久的將來與公眾見面。
華為的這一開源行動,迅速在開源社區與產業界引起了熱烈反響。不少業內專家對此表示高度認可,認為這將對我國AI產業的發展產生深遠影響。一方面,70億參數的稠密模型和720億參數的混合專家模型為不同規模的企業提供了多樣化的技術選擇,有助于推動人工智能技術在各行各業的廣泛應用;另一方面,基于昇騰平臺的深度優化技術將進一步提升大模型應用的部署效率,為我國在全球人工智能競爭中贏得更多話語權。