Meta 下一代旗艦大模型代號 Avocado,定位爲 Llama 系列繼任者,計劃於 2026 年第一季度發佈。該模型將採用閉源商業化路線,性能對標 GPT-5 與 Gemini,旨在與 OpenAI、Google 等公司的封閉模型生態正面競爭。
英偉達小模型NVARC在ARC-AGI2評測中以27.64%的成績超越GPT-5Pro,且單任務成本僅20美分,遠低於對手的7美元,性價比突出。其成功源於獨特的零預訓練深度學習方法,無需依賴大規模通用數據集。
Perplexity推出BrowseSafe系統,旨在實時防護AI瀏覽器代理免受網絡內容操控。該系統聲稱檢測Prompt注入攻擊的成功率達91%,優於GPT-5的85%和PromptGuard-2的35%,且運行速度快,可實時監測。隨着AI瀏覽器代理普及,此類安全方案愈發重要。
OpenAI CEO山姆·奧特曼緊急調整GPT-5.2發佈時間,由年底提前至12月9日,以應對谷歌Gemini3的競爭壓力。新模型在推理速度、多模態效率和上下文長度上全面領先,分別提升18%、23%並擴展至32,768 tokens,均優於Gemini3當前公開數據。
GPTunneL提供多模型AI服務,可生成文本、圖像等,支持多方式支付。
GPT Image 2是AI圖像生成與編輯器,可秒速生成高分辨率圖像。
強大的AI圖像編輯平臺,用GPT - Image - 2技術生成、編輯和增強專業圖像。
Dechecker可檢測GPT5、Claude、Gemini等生成的文本,提升寫作質量。
Openai
$2.8
輸入tokens/百萬
$11.2
輸出tokens/百萬
1k
上下文長度
-
Bytedance
$0.8
$2
128
Alibaba
$0.4
$8.75
$70
400
$1.75
$14
$0.35
64
$0.63
$3.15
131
$1.8
$5.4
16
Tencent
32
$17.5
$56
$0.7
$2.4
$9.6
Google
$1.4
bartowski
這是kldzj的GPT-OSS-120B-Heretic-v2模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型通過量化技術顯著減少了存儲和計算資源需求,同時保持了較好的模型性能,便於在各種設備上部署運行。
這是kldzj/gpt-oss-120b-heretic模型的量化版本,使用llamacpp進行量化處理,提供了多種量化類型選擇,包括BF16、Q8_0和MXFP4_MOE等特殊格式,顯著提升了模型運行效率。
這是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型是一個200億參數的大語言模型,提供了多種量化選項,從高質量到低質量不等,文件大小從41.86GB到11.52GB,適用於不同硬件條件。
TeichAI
本模型基於Qwen3-4B-Thinking-2507,在GPT-5-Codex的1000個示例上進行了微調,專注於文本生成任務,使用Unsloth技術實現了2倍訓練速度提升。
Mungert
gpt-oss-safeguard-20b是基於GPT-OSS-20b微調的安全推理模型,專門用於大語言模型輸入輸出過濾、在線內容標註以及信任與安全用例的離線標註。該模型採用Apache 2.0許可證,支持自定義策略和透明決策過程。
unsloth
gpt-oss-safeguard-120b 是 OpenAI 基於 gpt-oss 構建的安全推理模型,擁有 1170 億參數(其中 51 億為活躍參數)。該模型專門針對安全用例設計,能夠根據提供的安全策略對文本內容進行分類和執行基礎安全任務。
GPT-OSS-Safeguard-20B是基於GPT-OSS構建的210億參數安全推理模型,專門針對安全相關的文本內容分類和過濾任務進行優化。該模型支持自定義安全策略,提供透明的推理過程,適用於大語言模型輸入輸出過濾、在線內容標註等安全用例。
ModelCloud
這是一個基於MiniMax M2基礎模型的4bit W4A16量化版本,由ModelCloud的@Qubitum使用GPT-QModel工具進行量化。該模型專門針對文本生成任務進行了優化,在保持較好性能的同時顯著減少了模型大小和推理資源需求。
noctrex
這是慧慧GPT-OSS-120B-BF16-abliterated-v2模型的MXFP4_MOE量化版本,專門針對文本生成任務進行優化,提供高效的文本生成能力。該模型通過量化技術降低了計算和存儲需求,同時保持了良好的性能。
SiddhJagani
這是OpenAI GPT-OSS-20B模型的MLX格式8位量化版本,使用mlx-lm 0.28.2轉換,專為Apple Silicon優化,提供高效的文本生成能力
textcleanlm
這是一個基於 unsloth/gpt-oss-20b-BF16 基礎模型的內容保真模型,專門用於將原始文本轉換為簡潔、清晰的Markdown格式。模型採用Apache 2.0許可證,主要支持英語文本處理。
limeso
這是一個發佈在Hugging Face模型中心的Transformer模型,模型卡片文檔為自動生成,目前缺少具體的模型詳細信息。
nvidia
NVIDIA GPT-OSS-120B Eagle3是基於OpenAI gpt-oss-120b模型的優化版本,採用混合專家(MoE)架構,具備1200億總參數和50億激活參數。該模型支持商業和非商業使用,適用於文本生成任務,特別適合AI Agent系統、聊天機器人等應用開發。
MikeKuykendall
這是基於WeOpenML的GPT-OSS 20B模型的GGUF格式版本,首次實現了創新的MoE CPU專家卸載技術。該技術在保持完整生成質量的同時,實現了99.9%的顯存縮減,僅需2MB顯存即可運行200億參數的混合專家模型。
Jackrong
本項目通過創新的兩階段訓練流程,將GPT的推理能力蒸餾到Llama-3.1-8B模型中。首先通過監督微調進行知識蒸餾和格式對齊,然後利用強化學習激勵模型自主探索和優化推理策略,專注於數學推理領域的能力突破。
QuantTrio
GLM-4.6-GPTQ-Int4-Int8Mix是基於zai-org/GLM-4.6基礎模型的量化版本,在文本生成任務上表現出色。該模型通過GPTQ量化技術實現了模型大小的優化,同時保持了良好的性能表現。
Tesslate
WEBGEN DEVSTRAL IMAGES 是一個專注於網頁生成的人工智能模型,能夠利用 HTML、CSS、JS 和 Tailwind 技術生成單頁式網頁。該項目基於自定義模板進行訓練,採用監督微調方法,使用 GPT-OSS-120B 生成的數據集進行訓練。
EpistemeAI
本模型基於GPT-OSS-20B,藉助Unsloth強化學習框架進行微調,旨在優化推理效率,同時減少在從人類反饋中進行強化學習(RLHF)式訓練期間出現的漏洞。微調過程著重於對齊的魯棒性和效率,確保模型在不產生過多計算開銷的情況下保持推理深度。
geoffmunn
這是Qwen/Qwen3-Coder-30B-A3B-Instruct語言模型的GGUF量化版本,專為本地推理優化,支持llama.cpp、LM Studio、OpenWebUI、GPT4All等框架。該模型是一個30B參數規模的代碼生成和編程助手模型。
這是Qwen/Qwen3-14B語言模型的GGUF量化版本,擁有140億參數,具備深度推理能力、研究級準確性和自主工作流程。經過轉換後可用於llama.cpp、LM Studio、OpenWebUI、GPT4All等本地推理框架。
GPT Researcher MCP Server是一個基於MCP協議的AI研究服務器,能夠通過深度網絡搜索和驗證,為LLM應用提供高質量、優化的研究結果。
該項目展示瞭如何將MCP(模型上下文協議)服務器與Pydantic.AI集成,包含天氣服務示例代碼,支持通過不同LLM(如GPT-4和Sonnet)進行交互。
一個簡單的適配器,用於將MCP服務器轉換為兼容GPT Actions的API
一個基於FastAPI和GPT-4o的輕量級Excel自動化MCP服務器,支持通過自然語言操作Excel文件。
GPTDARR是一個基於模型上下文協議(MCP)的AI工具服務器,用於與Sonarr和Radarr集成,幫助AI助手搜索、添加和管理媒體庫中的電視節目和電影。
一個通過MCP協議直接查詢OpenAI模型的服務器,支持o3-mini和gpt-4o-mini模型,提供簡潔和詳細的回答。
MCP-ChatBot是一個基於模塊化能力協議(MCP)的聊天機器人應用,通過容器化架構集成天氣服務和GPT-4o模型,提供自然語言交互功能。
一個基於GPT-4o-mini模型的圖像分析MCP服務器,可處理URL或本地路徑的圖像內容分析
Image Gen MCP Server是一個通用AI圖像生成服務,通過Model Context Protocol(MCP)標準協議為各類LLM聊天機器人提供跨平臺、多模型的圖像生成能力,支持OpenAI和Google的多種圖像模型,實現文本對話到可視化內容的無縫轉換。
該項目實現了一個MCP服務器,通過OpenAI的gpt-image-1模型提供圖像生成和編輯功能,支持文本描述生成圖像、基於參考圖像編輯或修復圖像,並可將結果保存到本地。
一個基於OpenAI gpt-image-1模型的圖像生成與編輯MCP服務器,支持通過文本提示創建和修改圖像,提供便捷的集成方式和豐富的配置選項。
一個通過Claude Code無縫集成OpenAI GPT-5 API的MCP服務器,提供文本生成和結構化對話處理功能,優化開發體驗。
該項目是一個基於Model Context Protocol (MCP)的stdio服務器,用於將提示轉發至OpenAI的ChatGPT (GPT-4o),支持高級摘要、分析和推理功能,適用於LangGraph框架的助手集成。
Meta API MCP Server是一個支持多API的網關服務器,通過Model Context Protocol (MCP)協議連接各類API與大型語言模型(如Claude、GPT等),使AI助手能夠直接與API交互並訪問真實數據源。支持從JSON配置文件或Postman集合快速添加API,提供HTTP方法全面支持和多種認證方式。
一個為Cursor IDE設計的代碼審查工具,利用OpenAI的GPT模型提供智能代碼分析和建議。
一個基於OpenAI GPT-4o/gpt-image-1模型的圖像生成與編輯工具,支持通過文本提示生成圖像、編輯圖像(如修復、擴展、合成等),併兼容多種MCP客戶端。
一個基於TypeScript的MCP服務器,提供AI圖像和視頻生成功能,需GPT4O Image Generator的API密鑰支持。
OpenAPITools SDK是一個多AI平臺工具管理庫,提供統一接口支持Claude、GPT和LangChain等模型的工具集成與執行,支持本地和API兩種使用模式。
一個基於GPTNB API的Midjourney圖像生成服務器,提供圖像生成、編輯、人臉替換等功能
一個提供HTTP訪問MCP工具的REST API服務器,用於GPT集成