Liquid AI 推出 STAR 模型架構,效率超越傳統 Transformer
在當前大型語言模型(LLM)開發的競爭中,各大人工智能公司面臨着越來越多的挑戰,因此,越來越多的目光開始轉向 “Transformer” 以外的替代架構。Transformer 架構自2017年由谷歌研究人員提出以來,已成爲當今生成式人工智能的基礎。爲了應對這一挑戰,由麻省理工學院孵化的初創公司 Liquid AI 推出了一種名爲 STAR(Synthesis of Tailored Architectures)的創新框架。STAR 框架利用進化算法和數值編碼系統,旨在自動化生成和優化人工智能模型架構。Liquid AI 的研究團隊指出,STAR 的設計方法不同於傳統