OpenAI與Cerebras合作推出GPT-5.3-Codex-Spark模型,專爲實時編程優化,解決AI編程中的“等待焦慮”。該模型利用Cerebras晶圓級引擎實現超高速推理,速度突破1000tokens/s,實現代碼生成與思緒同步的即時反饋。
OpenAI加速推進“去英偉達化”戰略,於2026年2月12日發佈首款基於Cerebras芯片的AI模型GPT-5.3-Codex-Spark。該模型專爲軟件工程師設計,提供更靈活的交互體驗,支持即時中斷與切換,使開發者能隨時暫停冗長計算,快速處理其他緊急編碼任務。
加州芯片公司Cerebras Systems完成10億美元融資,估值達230億美元,一年內增長近三倍。其獨創的晶圓級引擎技術突破傳統芯片架構,獲得硅谷風投Benchmark Capital領投,顯示市場對非GPU算力路線的看好。
Cerebras完成10億美元H輪融資,估值飆升至230億美元。本輪由Tiger Global領投,AMD戰略參與。距離上輪81億美元估值僅四個月,增長迅猛。
AI即時推理解決方案,速度領先世界。
bartowski
這是通過REAP方法對MiniMax-M2均勻裁剪25%的專家得到的172B參數大語言模型,專門針對llama.cpp進行了優化量化處理,支持多種量化級別,可在LM Studio或基於llama.cpp的項目中運行。
這是一個基於REAP方法對MiniMax-M2中40%專家進行均勻剪枝得到的139B參數大語言模型,採用GLM架構和專家混合(MoE)技術,通過llama.cpp進行多種量化處理,適用於文本生成任務。
DevQuasar
本項目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力於讓知識為大眾所用。這是一個1720億參數的大型語言模型,經過優化和量化處理,旨在降低部署成本和提高推理效率。
cerebras
MiniMax-M2-REAP-162B-A10B是MiniMax-M2的高效壓縮版本,採用REAP(路由加權專家激活剪枝)方法,在保持性能幾乎不變的情況下將模型大小減少30%,從230B參數壓縮到162B參數,顯著降低了內存需求。
MiniMax-M2-REAP-172B-A10B是MiniMax-M2的內存高效壓縮變體,採用REAP專家剪枝方法,在保持性能幾乎不變的情況下,模型大小減輕了25%,從230B參數壓縮至172B參數。
noctrex
這是GLM-4.5-Air-REAP-82B-A12B模型的MXFP4_MOE量化版本,專門針對文本生成任務進行了優化。該模型基於cerebras的GLM-4.5-Air-REAP-82B-A12B基礎模型,通過MXFP4混合專家量化技術實現,在保持性能的同時顯著減小模型體積和推理成本。
danielus
該模型是cerebras/Qwen3-Coder-REAP-25B-A3B的GGUF格式轉換版本,使用llama.cpp工具進行格式轉換和量化處理。原始模型是一個25B參數的大語言模型,專門針對代碼生成任務進行優化。
這是Cerebras公司Qwen3-Coder-REAP-25B-A3B模型的量化版本,使用llama.cpp的imatrix技術進行量化處理,能夠在減少模型存儲空間和計算資源需求的同時保持模型性能。
GLM-4.5-Air-REAP-82B-A12B 是 GLM-4.5-Air 的高效壓縮版本,通過 REAP 剪枝技術將參數規模從 106B 壓縮到 82B,減少 25% 內存需求,同時保持近乎無損的性能表現。
RedHatAI
基於Meta的Llama-2-7B模型,使用UltraChat 200k數據集進行聊天任務微調的語言模型。該模型由Neural Magic和Cerebras聯合開發,支持高效的稀疏遷移和推理加速。
preemware
基於Cerebras-GPT-6.7B微調的網絡安全專用模型,具備基礎對話能力
BTLM-3B-8k-chat是基於BTLM-3B-8K-base開發的對話版本,採用DPO方法優化,專為符合人類偏好的對話場景設計。
BTLM-3B-8k-base是一個具有8k上下文長度的30億參數語言模型,基於6270億token的SlimPajama數據集訓練而成,性能可媲美開源70億參數模型。
Cerebras-GPT 13B 是一個基於開放架構和數據集訓練的大語言模型,屬於Cerebras-GPT系列,旨在研究大語言模型的縮放定律並展示在Cerebras軟硬件棧上的訓練簡易性和可擴展性。
Cerebras-GPT 2.7B 是基於 Transformer 架構的語言模型,旨在助力大語言模型的研究,可作為自然語言處理等領域的基礎模型。
Cerebras-GPT 590M是基於Transformer架構的語言模型,屬於Cerebras-GPT模型家族,旨在研究大語言模型擴展規律並展示在Cerebras軟硬件棧上訓練大語言模型的簡便性和可擴展性。
Cerebras-GPT系列中的111M參數模型,採用GPT-3風格架構,使用The Pile數據集訓練,遵循Chinchilla擴展定律實現計算最優。