【導(dǎo)讀】在阿里繼重磅開源Qwen3.5-397B-A17B之后,再次釋放Qwen3.5系列三款中等規(guī)模模型(35B、122B及27B版本)之際,國產(chǎn)算力生態(tài)迎來了又一次關(guān)鍵的協(xié)同升級。摩爾線程迅速響應(yīng),宣布其旗艦級AI訓(xùn)推一體全功能GPU MTT S5000已率先完成對這三款新模型的全方位適配。這一舉措不僅標(biāo)志著MUSA生態(tài)在應(yīng)對前沿大模型時的成熟度與完備性得到了有力驗證,更通過原生MUSA C支持與深度兼容Triton-MUSA兩大核心能力,為開發(fā)者構(gòu)建了從CUDA生態(tài)無縫遷移至國產(chǎn)算力的高效橋梁。
此次高效支持充分展示了摩爾線程MUSA生態(tài)的成熟度與完備性。在本次Qwen3.5系列模型的適配過程中,MUSA生態(tài)賦能開發(fā)者的兩大核心能力得到了有力驗證:
原生MUSA C支持:允許開發(fā)者直接使用MUSA C進行內(nèi)核開發(fā),大幅降低CUDA生態(tài)遷移門檻;
深度兼容Triton-MUSA:開發(fā)者可使用熟悉的Triton語法編寫高性能算子,并通過Triton-MUSA后端,無縫運行在摩爾線程全功能GPU上。
在底層技術(shù)層面,針對Qwen3.5多模態(tài)模型采用的混合注意力機制,摩爾線程實現(xiàn)了原生優(yōu)化?;趍uDNN計算庫和MATE開源算子庫,摩爾線程為混合注意力機制中的長序列處理提供高效支撐,成功在MTT S5000上實現(xiàn)了該模型的高性能推理。
總結(jié)
從GLM、MiniMax到Kimi,再到此次Qwen3.5系列的極速適配,摩爾線程已將對SOTA大模型的快速支持轉(zhuǎn)化為一種“新常態(tài)”,充分印證了MUSA架構(gòu)卓越的無縫兼容性與全功能GPU強大的生態(tài)承載力。通過底層針對混合注意力機制的原生優(yōu)化及muDNN、MATE算子庫的高效支撐,摩爾線程不僅解決了長序列處理等關(guān)鍵技術(shù)難題,更筑牢了堅實、易用的國產(chǎn)算力底座。






