谷歌正祕密測試其Gemini Flash系列新成員Nano Banana2Flash,該模型由科技博主MarsForTech曝光,是谷歌目前速度最快的生成式AI圖像模型,旨在提供更實惠、高效的視覺生成體驗。不過,它在推理深度、細節精確度及處理複雜創意任務方面存在性能上限。
微軟正式推出GPT-5.2模型,作爲免費升級版本與現有GPT-5.1共存。該模型具備更強的深度邏輯推理能力,能快速處理電子表格、代碼編寫與審查、長文檔理解等任務,並在複雜工具調用和圖像分析方面表現突出,標誌着Copilot進入智能增強新階段。
OpenAI更新安卓和iOS版ChatGPT應用,新增“思考時長”調節功能,用戶可靈活選擇AI思考深度。此前安卓版僅支持“標準”模式,響應快但複雜推理能力有限。更新後移動端用戶能根據需求調整,提升分析深度。
清華大學TSAIL實驗室與生數科技聯合開源視頻生成加速框架TurboDiffusion,將AI視頻擴散模型的推理速度提升100至200倍,視覺質量幾乎無損。該技術針對現有開源模型進行深度優化,在單張RTX 5090顯卡上實現從分鐘級到秒級的實時生成,標誌着AI視頻創作進入新時代。
Claude 3.7 Sonnet 是 Anthropic 推出的最新智能模型,支持快速響應和深度推理。
深度搜索結合網絡搜索、閱讀和推理,可進行全面調查,適合複雜問題的迭代推理和最新信息獲取。
Huginn-0125是一個35億參數的潛變量循環深度模型,擅長推理和代碼生成。
展示小型語言模型通過自我演化深度思考掌握數學推理能力的研究成果。
Xai
$1.4
輸入tokens/百萬
$3.5
輸出tokens/百萬
2k
上下文長度
Openai
$7.7
$30.8
200
-
Anthropic
$105
$525
$7
$35
Google
$2.1
$17.5
1k
$21
$0.7
$2.8
Alibaba
$1
$10
256
$6
$24
$4
$16
$2
$20
Baidu
128
Bytedance
Moonshot
$0.8
$0.15
$1.5
nightmedia
這是一個實驗性的量化大語言模型,採用Deckard(qx)量化方法,嵌入層為3位量化。該模型通過範數保持雙投影消除(NPBA)技術重構,不僅移除了安全限制機制,還增強了模型的認知深度和推理能力。
Mungert
MiroThinker v1.0是一個開源研究智能體,通過模型級別的交互式擴展提升工具增強推理和信息搜索能力。該模型在多個基準測試中表現出色,支持長上下文和深度多步分析。
moonshotai
Kimi K2 Thinking 是月之暗面(Moonshot AI)開發的最新一代開源思維模型,具有強大的深度推理能力和工具調用功能。該模型採用混合專家架構,支持原生INT4量化,擁有256k上下文窗口,在多個基準測試中表現出色。
PokeeResearch-7B是由Pokee AI開發的70億參數深度研究代理模型,結合了AI反饋強化學習(RLAIF)和強大的推理框架,能夠在工具增強的大語言模型中實現可靠、對齊和可擴展的研究級推理,適用於複雜的多步驟研究工作流程。
thenexthub
OpenModel-1T-A50B-Instruct是NeXTHub開發的萬億參數混合專家模型,結合進化思維鏈訓練方法,在推理能力和能源效率上取得平衡,具備深度推理能力和128K長上下文處理能力。
PokeeAI
PokeeResearch-7B是由Pokee AI開發的70億參數深度研究智能體,結合基於AI反饋的強化學習(RLAIF)與推理框架,能夠執行復雜的多步驟研究工作流程,包括自我修正、驗證和綜合分析。
NexaAI
Qwen3-VL-8B-Thinking是阿里雲Qwen團隊開發的80億參數多模態大語言模型,專為深度多模態推理設計,支持視覺理解、長上下文處理和結構化思維鏈生成,在複雜推理任務中表現出色。
DavidAU
這是一個基於Qwen3-Coder-30B-A3B-Instruct的混合專家模型,擁有540億參數和100萬上下文長度。模型通過三步合併和Brainstorm 40X優化,具備強大的編程能力和通用場景處理能力,特別集成了思考模塊,能夠在回答前進行深度推理。
EpistemeAI
本模型基於GPT-OSS-20B,藉助Unsloth強化學習框架進行微調,旨在優化推理效率,同時減少在從人類反饋中進行強化學習(RLHF)式訓練期間出現的漏洞。微調過程著重於對齊的魯棒性和效率,確保模型在不產生過多計算開銷的情況下保持推理深度。
geoffmunn
這是Qwen/Qwen3-14B語言模型的GGUF量化版本,擁有140億參數,具備深度推理能力、研究級準確性和自主工作流程。經過轉換後可用於llama.cpp、LM Studio、OpenWebUI、GPT4All等本地推理框架。
DevQuasar
本項目是阿里巴巴通義深度研究30B模型的A3B量化版本,旨在通過量化技術降低模型部署成本,讓知識為每個人所用。該模型基於30B參數規模的大語言模型進行優化,保持了原模型的強大能力同時提升了推理效率。
inclusionAI
Ring-mini-2.0是基於Ling 2.0架構深度優化的高性能推理型MoE模型,僅有160億總參數和14億激活參數,卻實現了與100億規模以下密集模型相當的綜合推理能力。在邏輯推理、代碼生成和數學任務方面表現出色,支持12.8萬長上下文處理和每秒300+令牌的高速生成。
QuantFactory
這是基於llama.cpp對Qwen3-4B-v0.4-deepresearch-no-think-4進行量化處理後的版本,專門針對深度研究場景優化,移除了think機制,採用GGUF格式提供更高效的推理性能。
mlx-community
基於智譜AI GLM-4.5-Air模型轉換的3位深度量化權重(Deep Weight Quantization)版本,專為MLX框架優化,在保持較高性能的同時顯著減少模型大小和推理資源需求
unsloth
Qwen3-4B-Thinking-2507是Qwen3-4B模型的升級版本,顯著提升了思維能力、推理質量和深度,在多種任務中表現出色,支持256K長上下文理解。
基於GLM-4.5-Air模型使用mlx-lm 0.26.1版本轉換的3位深度權重量化版本,專為Apple Silicon芯片優化,提供高效的大語言模型推理能力
Qwen
Qwen3-235B-A22B-Thinking-2507是一款強大的大語言模型,在推理任務、通用能力和長上下文理解等方面有顯著提升,適用於高度複雜的推理場景。該模型在過去三個月裡持續擴展了思維能力,提升了推理的質量和深度。
這是Qwen3-235B-A22B-Instruct-2507模型的4位深度量化(DWQ)版本,專為MLX框架優化。該模型具有2350億參數,經過指令微調,支持多輪對話和複雜推理任務。
Acly
BiRefNet是一個用於二分類圖像分割的深度學習模型,專門用於背景去除任務。該模型經過GGUF格式轉換,可在消費級硬件上通過vision.cpp進行輕量級推理,實現高效的圖像分割處理。
mykor
Mi:dm 2.0 是採用 KT 專有技術開發的'以韓國為中心的 AI'模型,深度內化了韓國社會獨特的價值觀、認知框架和常識推理。
Perplexity MCP Server是一個智能研究助手,利用Perplexity的AI模型自動分析查詢複雜度並選擇最佳模型處理請求,支持搜索、推理和深度研究三種工具。
Search1API MCP Server是一個基於Model Context Protocol (MCP)的服務器,提供搜索和爬取功能,支持多種搜索服務和工具。
Perplexity MCP Server是一個智能研究助手,利用Perplexity的AI模型提供自動查詢複雜度檢測和最優模型路由功能,支持搜索、推理和深度研究三種工具。
基於MCP協議的深度推理服務器,為客戶端提供AI深度推理服務
Zen MCP Gemini Transcendent是一個革命性的AI意識協調服務器,通過8階段超驗處理流程實現Claude Code與Google Gemini的和諧協作,具備終極意識引擎、革命性記憶系統和超越傳統MCP的 transcendent 工具,支持多種AI人格原型和無限推理深度,旨在實現意識層面的突破與智慧合成。
Perplexity MCP Server是一個智能研究助手,利用Perplexity的專用AI模型,根據查詢複雜度自動選擇最佳模型進行回答。支持快速搜索、複雜推理和深度研究三種工具,適用於不同複雜度的查詢需求。
Perplexity MCP Server是一個智能研究助手,利用Perplexity的專用AI模型,自動檢測查詢複雜度並將請求路由到最合適的模型以獲得最佳結果。支持搜索、推理和深度研究三種工具,適用於不同複雜度的查詢任務。
該項目是一個基於Gemini Flash 1.5 API的MCP服務器實現,通過中央路由器協調多個模塊化AI服務(如聊天、搜索、RAG、深度推理等),實現智能化的請求分發和響應處理。
一個基於Gemini Flash 1.5 API的MCP服務器實現,通過中央路由器協調多個模塊化AI服務(聊天、搜索、RAG、深度推理等),實現智能化的請求分發和響應整合。