OpenAI發佈GPT-5.2系列模型,在多個專業基準測試中表現卓越,部分領域超越人類專家。該模型在GDPval測試中,以70.9%的成績在44個職業任務中領先頂尖專家,並在SWE-bench Pro編程測試中取得突破,成爲當前專業知識工作表現最佳的AI模型。
OpenAI發佈GPT-5.2系列模型,定位日常專業使用,旨在提升用戶經濟價值。該系列含Instant、Thinking和Pro版本,在電子表格、演示文稿、代碼編寫、長文本理解及圖像處理等任務上較GPT-5.1有顯著改進。
Meta 下一代旗艦大模型代號 Avocado,定位爲 Llama 系列繼任者,計劃於 2026 年第一季度發佈。該模型將採用閉源商業化路線,性能對標 GPT-5 與 Gemini,旨在與 OpenAI、Google 等公司的封閉模型生態正面競爭。
AWS在re:Invent2025大會上推出四款自研“Nova2”系列大模型,覆蓋文本、圖像、視頻、語音多模態場景,並首次內置網頁檢索與代碼執行能力,宣稱在價格性能比上達到業界領先。其中,Nova2 Lite定位高性價比推理,在多項基準測試中表現優於Claude Haiku4.5和GPT-5Mini,成本僅爲後者約50%;Nova2 Pro則面向複雜Agent任務。
利用 DALL-E 3 和 GPT-4 Vision 生成一系列圖像
Google
$0.49
輸入tokens/百萬
$2.1
輸出tokens/百萬
1k
上下文長度
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
-
Anthropic
$105
$525
200
$21
Alibaba
$1
$10
256
$6
$24
$2
$20
$4
$16
Baidu
128
Bytedance
$0.8
$0.15
$1.5
openai
GPT-OSS系列是OpenAI推出的開放權重模型,專為強大的推理能力、智能體任務和多樣化開發者用例設計。該模型能有效解決複雜問題,提供靈活高效的使用體驗,支持Apache 2.0開源許可證。
GPT-OSS系列是OpenAI發佈的開放權重模型,專為強大推理、智能體任務和多樣化開發者用例設計。120B版本擁有1170億參數(其中51億為活躍參數),適用於生產環境和需要高推理能力的場景。
Qwen
Qwen3是通義千問系列大語言模型的最新版本,提供17億參數的GPTQ 8位量化模型,支持思維與非思維模式切換,增強推理能力和多語言支持。
LatentWanderer
GLM-4-32B-0414是GLM家族的新成員,參數規模達320億,性能與GPT系列相當,支持本地部署。
unsloth
GLM-4-32B-0414是GLM家族的新成員,具備320億參數規模,性能媲美GPT系列和DeepSeek-V3系列,支持本地部署。
GLM-4-32B-0414是GLM家族的新成員,擁有320億參數,性能媲美GPT系列和DeepSeek系列,支持本地部署。
THUDM
GLM-4-32B-0414是擁有320億參數規模的大語言模型,性能與GPT系列相當,支持中英文,擅長代碼生成、函數調用和複雜任務處理。
openbmb
MiniCPM3-4B是MiniCPM系列第三代模型,整體性能超越Phi-3.5-mini-Instruct和GPT-3.5-Turbo-0125,與近期多個7B~9B量級模型表現相當。
intlsy
OPT是由Meta AI開發的開放預訓練Transformer語言模型,包含1.3B參數,對標GPT-3系列模型
nicholasKluge
Aira-2是Aira指令調優系列的第二版,基於GPT-2的葡萄牙語指令調優模型,適用於文本生成和對話任務。
MBZUAI
LaMini-GPT-1.5B是基於GPT-2-xl架構微調的大型語言模型,屬於LaMini-LM系列,專注於指令跟隨任務
LaMini-GPT-124M是LaMini-LM模型系列中的一員,基於GPT-2架構,在258萬條指令數據集上微調而成,專門用於自然語言指令響應。該模型具有124M參數,能夠理解並響應人類自然語言指令,為用戶提供相關問題的解答。
cerebras
Cerebras-GPT系列中的111M參數模型,採用GPT-3風格架構,使用The Pile數據集訓練,遵循Chinchilla擴展定律實現計算最優。
UBC-NLP
JASMINE是一個面向小樣本學習的阿拉伯語GPT模型系列,參數量從3億至67億不等,預訓練數據規模達235GB文本。
facebook
OPT是由Meta AI推出的開源大語言模型系列,對標GPT-3架構,旨在促進大模型研究的可復現性和社會影響探討。
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。