中金發(fā)布研報(bào)稱(chēng),近期DeepSeek發(fā)布了其新一代開(kāi)源模型V4系列并公布技術(shù)報(bào)告,作為國(guó)產(chǎn)開(kāi)源模型的代表廠商,DeepSeek的技術(shù)創(chuàng)新也是模型產(chǎn)業(yè)進(jìn)步的方向之一。此次,V4系列最核心架構(gòu)創(chuàng)新在于應(yīng)用混合注意力機(jī)制降低單Token推理FLOPs和KV Cache,提升模型推理效率。該行認(rèn)為,DeepSeek和其他國(guó)產(chǎn)模型以開(kāi)源的方式探索模型進(jìn)步方法論和工程優(yōu)化方向,共同促進(jìn)模型產(chǎn)業(yè)的繁榮以及加速AGI時(shí)代的到來(lái)。
該行指,DeepSeek發(fā)布V4模型,突破超長(zhǎng)上下文效率瓶頸。V4預(yù)覽版推出兩個(gè)版本的MoE模型,包括智能水平和定價(jià)更高,聚焦完成復(fù)雜任務(wù)的V4-Pro以及主打性?xún)r(jià)比優(yōu)勢(shì)的V4-Flash,兩個(gè)版本模型均支持100萬(wàn)Token的超長(zhǎng)上下文,這也是此次V4系列的核心亮點(diǎn)。該行認(rèn)為,V4在超長(zhǎng)上下文的突破將賦能模型在Agentic AI領(lǐng)域的加速進(jìn)步,更高效準(zhǔn)確完成復(fù)雜長(zhǎng)程任務(wù)。
該行認(rèn)為,V4的優(yōu)化緩解了HBM的壓力,高效釋放了各部分存儲(chǔ)的效率,SSD進(jìn)入模型核心推理的趨勢(shì)顯現(xiàn)??春脟?guó)產(chǎn)開(kāi)源大模型的進(jìn)步趨勢(shì),在模型效率的優(yōu)化下將加速下游Agentic AI的需求釋放,看好模型廠商智譜(HK2513)(02513)、MiniMax(00100)。
