近日,NVIDIA正式宣佈與Meta建立一項爲期多年、跨世代的戰略合作伙伴關係。根據雙方達成的協議內容,Meta計劃在其超大規模的AI數據中心內部署數百萬顆NVIDIA的Blackwell GPU,以及專爲智能體AI推理量身打造的下一代Rubin架構GPU,以強化其AI算力基礎。
OpenAI宣佈將於2026年2月13日從ChatGPT模型選擇器中移除GPT-4o及其衍生模型,包括GPT-4.1、GPT-4.1mini和o4-mini。這些模型將暫時保留在API中供開發者使用,而普通用戶將全面轉向更先進的GPT-5系列。OpenAI解釋稱,這一決策基於真實使用數據,技術演進是主要原因。
字節跳動Seed團隊發佈新一代視頻創作模型Seedance2.0,採用統一的多模態音視頻聯合生成架構,推動AI視頻生成從“單點突破”邁向“全能協作”的工業級應用階段。相比1.5版本,新模型在複雜交互與運動場景下的可用率顯著提升,通過出色的物理還原能力,攻克了雙人花滑、多人競技等高難度動作生成難題。
Positron發佈AI推理芯片Asimov,宣稱其能效比和性價比預計達英偉達下一代產品的5倍,引發行業關注。該芯片針對大模型推理優化,通過簡化GPU架構提升效率。
Xai
$1.4
輸入tokens/百萬
$3.5
輸出tokens/百萬
2k
上下文長度
Alibaba
$4
$16
1k
$2
$20
-
Bytedance
$1.2
$3.6
4
256
Moonshot
$0.8
128
$10.5
Deepseek
$12
Tencent
$1
32
Openai
$0.4
$0.75
$8.75
$70
400
64
$0.63
$3.15
131
24
Chatglm
$8
OpenOranje
TweeTaal-nl-en-0.6B 是一個專門針對荷蘭語-英語雙向翻譯任務進行微調的語言模型,基於Qwen3-0.6B架構開發。該模型在資源受限環境下仍能提供準確流暢的翻譯服務,支持荷蘭語與英語之間的互譯。
ubergarm
這是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多種量化選項,從高精度的Q8_0到極度壓縮的smol-IQ1_KT,滿足不同硬件條件下的部署需求。該模型支持32K上下文長度,採用MLA架構,專為對話場景優化。
Maxlegrec
BT4模型是LeelaChessZero引擎背後的神經網絡模型,專門用於國際象棋對弈。該模型基於Transformer架構設計,能夠根據歷史走法預測最佳下一步走法、評估棋局形勢並生成走法概率。
noctrex
本項目是卡納娜1.5-15.7B-A3B指令模型的MXFP4_MOE量化版本,可在特定場景下提升模型的運行效率。該模型基於kakaocorp/kanana-1.5-15.7b-a3b-instruct進行優化,採用混合專家架構和MXFP4量化技術。
labhamlet
WavJEPA是基於波形的聯合嵌入預測架構的音頻基礎模型,利用高級語義表示學習解決語音單元或標記級表示學習的不足。在眾多下游基準任務中顯著優於最先進的時域音頻基礎模型,同時所需計算資源大幅減少。
bartowski
Apollo-V0.1-4B-Thinking是基於4B參數的大語言模型,採用思維鏈推理架構,專門針對推理任務優化。該模型提供了多種量化版本,可在不同硬件環境下高效運行。
moonshotai
Kimi Linear是一種混合線性注意力架構,在各種場景下包括短、長上下文以及強化學習擴展機制中,均優於傳統的全注意力方法。它能有效解決傳統注意力機制在長上下文任務中效率低下的問題,為自然語言處理等領域帶來更高效的解決方案。
electron271
這是準確性領域的最新前沿模型,致力於實現人工穀物智能,在全球頂尖穀物種植團隊的助力下取得了重大進展。該模型基於Qwen3-0.6B架構,利用RX 9070 XT顯卡和unsloth工具在本地進行全量微調。
本項目提供了慧慧Qwen3-VL-30B-A3B-Instruct模型的量化版本,旨在提升模型在特定場景下的性能與效率。這是一個基於Qwen3-VL架構的視覺語言模型,支持圖像和文本的多模態交互。
ubergarm2
這是inclusionAI/Ling-1T模型的量化版本集合,基於ik_llama.cpp分支開發,提供多種量化方案以適應不同的內存和性能需求。這些量化模型在給定的內存佔用下提供出色的困惑度表現,特別優化了MoE架構的推理效率。
vilhess
PatchFM是一個基於Transformer架構的單變量時間序列預測基礎模型,採用逐塊預測方法,借鑑大語言模型的訓練思想,將時間序列分割為塊進行下一塊預測,支持多分位數輸出和不確定性估計。
jinaai
jina-reranker-v3是一款參數為0.6B的多語言文檔重排器,採用創新的'最後但不遲的交互'架構,能夠在多語言環境下高效準確地對文檔進行重排,顯著提升信息檢索的相關性和效率。
samuelsimko
這是一個基於Transformer架構的預訓練模型,具體功能和特性需要根據實際模型信息補充。模型支持多種下游任務,具備良好的泛化能力。
kikekewl
MLX是基於Qwen/Qwen3-Next-80B-A3B-Thinking基礎模型構建的文本生成庫,專注於高效推理和文本生成任務。該模型採用先進的架構設計,支持大規模參數下的高性能文本處理。
DavidAU
基於OpenAI的gpt-oss-120b模型優化的大型語言模型,使用NEO數據集進行性能提升,支持多場景應用,可在CPU、GPU或部分卸載模式下運行,具有128k上下文長度和最多128個專家的混合專家架構。
trl-internal-testing
Tiny GptOssForCausalLM 是一個專為 TRL (Transformer Reinforcement Learning) 庫單元測試設計的最小化因果語言模型。該模型規模極小,主要用於驗證 TRL 庫中強化學習相關功能在特定模型架構下的運行正確性。
adaptive-classifier
自適應分類器是一個支持持續學習和動態添加類別的文本分類模型,基於ModernBERT-base架構構建,能夠在不重新訓練的情況下適應新的類別和示例。
metythorn
這是一個基於XLM-RoBERTa架構預訓練的高棉語和英語語言模型,專為掩碼語言建模任務優化,在高棉語語境下表現優於原版xlm-roberta-base模型。
ByteDance
ContentV是一個高效的視頻生成模型框架,通過極簡架構、多階段訓練策略和經濟高效的強化學習框架,在有限計算資源下實現高質量視頻生成。
arshiaafshani
基於GPT-2架構開發的大語言模型,專注於科研輔助功能,在有限硬件條件下完成訓練
Auto Causal Inference是一個利用大型語言模型(LLM)自動進行因果推斷的項目,用戶只需指定處理變量和結果變量,系統就能自動完成變量角色識別、因果圖構建、效應估計和模型驗證等全流程分析。項目提供兩種代理架構(LangGraph和MCP)來實現這一功能,特別適用於銀行場景下的因果問題分析。
Brainrot MCP是一個解決AI編程會話中上下文丟失問題的模型上下文協議服務器,通過存儲項目決策、待辦事項和架構模式,實現跨會話的持久化記憶和智能檢索。