企業AI投資正從廣泛試用轉向聚焦核心贏家。2026年被視爲關鍵轉折點,企業預算雖增但將高度集中,從測試多個工具轉向削減重疊方案,優化投資效率。
NVIDIA與斯坦福大學聯合發佈通用遊戲AI智能體NitroGen,在1000多款遊戲、4萬小時數據上訓練而成,具備強大跨遊戲泛化能力。研究團隊將開源數據集和模型權重,推動全球AI與遊戲研究發展。
阿里通義實驗室推出開源工具Qwen-Image-i2L,可將單張圖片快速轉化爲可微調的LoRA模型,大幅降低個性化風格遷移門檻。用戶只需上傳一張圖片,無需大量數據或昂貴算力,即可生成輕量級LoRA模塊,並集成到其他生成模型中,實現高效“單圖風格遷移”。該技術已在AI社區引發廣泛關注。
月之暗面開源AI代理框架Kosong,以輕量靈活特性助力下一代智能體開發。該框架通過統一抽象層解決工具碎片化問題,簡化開發流程,旨在打通大模型與實際應用場景,引發開發者社區廣泛關注。
低成本強化視覺語言模型的泛化能力,僅需不到3美元。
開源機器人模擬平臺,用於生成無限機器人數據和泛化AI。
基於軌跡草圖的機器人任務泛化
Google
$0.49
輸入tokens/百萬
$2.1
輸出tokens/百萬
1k
上下文長度
Xai
$1.4
$3.5
2k
Openai
$7.7
$30.8
200
Anthropic
$105
$525
$0.7
$2.8
Alibaba
$1
$10
256
-
Moonshot
$4
$16
Baidu
32
$10.5
Deepseek
$12
128
Tencent
$8.75
$70
400
$0.35
$1.75
$14
$0.63
$3.15
131
GilbertAkham
這是一個基於DeepSeek-R1-Distill-Qwen-1.5B的多任務微調模型,通過LoRA適配器在多個數據集上進行訓練,具備強大的多任務泛化和推理能力,能夠處理廣泛的自然語言和基於推理的任務。
lerobot
π₀.₅是由Physical Intelligence開發的視覺-語言-動作模型,具備開放世界泛化能力,能夠在訓練時從未見過的全新環境和場景中執行機器人任務。
mldi-lab
Kairos-10M是一款專為跨領域零樣本預測設計的時間序列基礎模型,擁有約1000萬參數。它能處理不同信息密度的異構時間序列數據,無需微調即可在不同領域實現強大的泛化能力。
Kairos-50M是一個擁有5000萬參數的時間序列基礎模型,專門用於跨不同領域的零樣本預測。它採用自適應分詞和位置編碼技術,能夠處理具有不同信息密度的異構時間序列數據,無需微調即可在不同領域實現強大的泛化能力。
XiaomiMiMo
MiMo Audio是一款基於大規模預訓練的音頻語言模型,在語音智能和音頻理解基準測試中取得了開源模型的SOTA性能。該模型展現出強大的少樣本學習能力,能夠泛化到訓練數據中未包含的任務,支持語音轉換、風格遷移和語音編輯等多種音頻任務。
samuelsimko
這是一個基於Transformer架構的預訓練模型,具體功能和特性需要根據實際模型信息補充。模型支持多種下游任務,具備良好的泛化能力。
yslan
STream3R是一種基於因果Transformer的可擴展序列3D重建模型,將點雲圖預測重新定義為僅解碼器的Transformer問題。它引入流式處理框架,利用因果注意力高效處理圖像序列,能夠很好地泛化到各種具有挑戰性的場景,包括傳統方法經常失效的動態場景。
ubergarm
這是一個基於ik_llama.cpp的GLM-4.5-Air模型的實驗性量化版本,採用imatrix技術進行優化,目前處於測試階段,不適合廣泛使用。該版本通過先進的量化技術實現了更高的推理效率,在保持模型性能的同時顯著減少了內存佔用。
MonkeyDAnh
這是一個基於RoBERTa-base微調的AI文本檢測模型,專門用於區分AI生成文本和人類撰寫文本。模型在多個數據集上進行了順序微調,具備高精度的檢測能力和良好的泛化性能。
Mungert
rwkv7-7.2B-g0是基於RWKV7架構的72億參數多語言文本生成模型,採用創新的量化優化技術,支持英語、中文、日語、韓語、法語、阿拉伯語、西班牙語和葡萄牙語等多種語言,具有高效的推理性能和廣泛的應用場景。
RedHatAI
專為Qwen/Qwen3-8B設計的推測解碼模型,採用EAGLE-3算法提升文本生成效率和質量,通過多個優質數據集訓練獲得優秀的泛化能力
OpenMed
這是一款專門用於化學實體識別的模型,基於xlm-roberta-base架構,在BC5CDR數據集上訓練,可識別生物醫學文本中的化學實體,在生物醫學領域有著廣泛應用。
silx-ai
TARS-1B是一個擁有10億參數的非Transformer液態神經網絡語言模型,完全從頭構建,採用創新的液態神經網絡架構,專為連續時間推理和高效泛化而設計。該模型僅使用3億個令牌進行預訓練,在多個基準測試中展現出令人印象深刻的性能。
lhjiang
AnySplat是一種先進的3D高斯散點渲染模型,能夠從不同視角的圖像高效生成高質量的3D場景。該模型具有快速推理能力和良好的泛化性能,為3D重建和渲染提供了創新的解決方案。
TutlaytAI
專注於將圖像內容轉化為文本信息的模型,具有廣泛的應用價值。
unsloth
Whisper是一個預訓練的自動語音識別(ASR)和語音翻譯模型,通過68萬小時標註數據訓練,具有強大的泛化能力。
Whisper是OpenAI開發的最先進的自動語音識別(ASR)和語音翻譯模型,在超過500萬小時的標記數據上訓練,具有強大的零樣本泛化能力。Turbo版本是原版的修剪微調版本,解碼層從32層減少到4層,速度大幅提升但質量略有下降。
AceMath-RL-Nemotron-7B 是一個完全通過強化學習訓練的數學推理模型,基於 Deepseek-R1-Distilled-Qwen-7B 進行訓練,在數學推理任務中表現出色,同時在編碼任務上也有一定的泛化能力。
ConicCat
這是一個實驗性的小型思維模型,旨在8GiB消費級顯卡上運行,具備通用推理能力。通過監督微調(SFT)和高質量推理軌跡訓練,模型能夠將推理能力泛化至多種任務。
PsycheFoundation
Nous Consilience 40B 是一個通過互聯網以去中心化方式預訓練的生成式文本模型,代表人類廣泛多樣的創造性成果。
Graphiti MCP Pro是基於Graphiti框架增強的記憶存儲MCP服務與管理平臺,提供異步並行處理、任務管理工具、統一配置管理、更廣泛的AI模型兼容性以及全面的可視化管理系統。