中科院推出類腦大模型 SpikingBrain:以2% 數據實現百倍速度突破
近日,中國科學院自動化研究所的李國齊與徐波團隊聯合發佈了全球首款大規模類腦脈衝大模型 ——SpikingBrain1.0。該模型在處理長文本時展現出驚人的速度,能夠以超過當前主流 Transformer 模型100多倍的速度處理400萬 token 的超長文本,且僅需2% 的數據量。當前主流的大語言模型,如 GPT 系列,普遍基於 Transformer 架構。儘管 Transformer 以其強大的自注意力機制而聞名,但其計算複雜度卻是一個致命的短板。在文本長度增加時,計算量呈現出平方級別的暴漲,使得長文本的處理變得異常耗時和耗