OpenAI在OpenRouter平臺匿名上線代號"Polaris Alpha"的大模型,疑似傳聞中的GPT-5.1。該模型具備256K上下文窗口,知識截止至2024年10月,性能表現引發開發者密集測試。在Gemini3、Claude4.5等競品壓力下,此舉被視爲OpenAI年底市場競爭的重要佈局。
谷歌Gemini系列AI模型迎來新進展,預覽版"gemini-3-pro-preview-11-2025"在Vertex AI平臺被發現,預計本月正式推出。該模型支持100萬token超大上下文窗口,標識明確指向11月發佈。Vertex AI作爲谷歌雲端AI開發核心工具,已在網絡日誌中暴露相關信息。
谷歌與印度信實工業旗下Jio合作,在印度推出免費AI套餐。符合條件的Jio用戶可獲18個月Google AI Pro服務,價值約3萬元人民幣。套餐包含Gemini2.5Pro模型訪問權限,支持深度研究功能和百萬級令牌上下文窗口,旨在推動AI技術在印度普及應用。
OpenAI發佈GPT-5 Pro API,具備40萬Token上下文窗口,支持圖像輸入,可處理複雜長文本。定價爲每百萬Token15美元,推動AI應用普及。這是該公司迄今最強大的模型。
將LLM上下文窗口擴展至200萬令牌的技術
擴展LLM上下文窗口
擴展大語言模型的上下文窗口
全球最長上下文窗口大模型
google
$9
輸入tokens/百萬
$72
輸出tokens/百萬
1M
上下文長度
$2.16
$18
alibaba
$0.72
128k
baidu
$4
$16
meta
$1.22
$4.32
$2.88
$2
$8
32k
$0.58
10M
openai
baichuan
-
192k
mistral
$14.4
$43.2
xai
$0.65
131.1k
$1.08
Mungert
aquif-3.5系列中的頂尖模型,具備先進推理能力和100萬標記的大上下文窗口,在多個基準測試中表現卓越,AAII綜合得分達到60分。
unsloth
aquif-3.5系列是2025年11月3日發佈的巔峰之作,包含Plus和Max兩個版本,提供先進的推理能力和前所未有的100萬標記上下文窗口,在各自類別中實現了最先進的性能。
moonshotai
Kimi K2 Thinking 是月之暗面(Moonshot AI)開發的最新一代開源思維模型,具有強大的深度推理能力和工具調用功能。該模型採用混合專家架構,支持原生INT4量化,擁有256k上下文窗口,在多個基準測試中表現出色。
GLM-4.6是智譜AI推出的新一代文本生成模型,相比GLM-4.5在多個方面有顯著改進,包括更長的上下文窗口、更優的編碼性能和更強的推理能力。該模型在多個公開基準測試中表現出色,與國內外領先模型相比具有競爭優勢。
zai-org
GLM-4.6-FP8是智譜AI推出的新一代文本生成模型,相比GLM-4.5在多個關鍵方面有顯著改進。該模型具有更長的上下文窗口、卓越的編碼性能、高級推理能力和更強大的智能體功能,能夠處理更復雜的任務。
prithivMLmods
Gemma 3 270M是谷歌推出的輕量級多模態模型,基於與Gemini系列相同的研究技術,支持文本和圖像輸入,具有32K上下文窗口,在問答、總結、圖像理解和代碼生成等任務上提供高質量輸出。
Gemma 3是谷歌推出的輕量級開源多模態模型系列,基於與Gemini相同技術構建。270M版本是其中最小規模模型,支持文本和圖像輸入,具備128K上下文窗口,適用於資源受限環境部署。
Gemma 3是谷歌推出的輕量級開源多模態模型家族,能夠處理文本和圖像輸入並生成文本輸出。具有128K大上下文窗口,支持140多種語言,適用於文本生成和圖像理解等多種任務。
Gemma 3是Google推出的輕量級、最先進的多模態開放模型家族,基於與Gemini模型相同的研究和技術構建。該模型能夠處理文本和圖像輸入並生成文本輸出,具有128K的大上下文窗口,支持超過140種語言,提供從270M到27B的多種尺寸選擇。
Gemma 3是谷歌推出的輕量級、最先進的多模態開放模型家族,能夠處理文本和圖像輸入並生成文本輸出。具有128K大上下文窗口,支持超過140種語言,提供從270M到27B多種規模選擇,適用於各種文本生成和圖像理解任務。
Qwen3代碼推理是一個參數量為40億的緊湊型模型,在nvidia/OpenCodeReasoning上進行了微調,專門為編碼和邏輯推理任務而設計。該模型在代碼生成和邏輯問答方面表現出色,支持超過10000個標記的上下文窗口。
FlameF0X
SnowflakeCore-G1-Tiny2是基於GPT風格的自定義Transformer語言模型,是SnowflakeCore-G1-Tiny的改進版本。該模型使用PyTorch從頭構建,在common-pile/wikimedia_filtered數據集上訓練,擁有約4億參數,支持2048 token上下文窗口,專為文本生成任務設計。
Devstral 1.1是由Mistral AI和All Hands AI合作開發的智能大語言模型,專為軟件工程任務設計。該模型在SWE-bench基準測試中表現出色,位列開源模型榜首,擁有240億參數和128k tokens的長上下文窗口。
專為軟件工程項目打造的高效語言模型,輕量級設計,支持128k大上下文窗口,適用於複雜編碼任務。
Mozilla
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持128k上下文窗口和100多種語言,在推理、指令遵循和代理能力方面表現優異。
FractalAIResearch
以499美元訓練成本實現的14B參數數學推理模型,在16K上下文窗口下達到媲美閉源o4-mini的性能
DavidAU
基於千問3-30B-A3B的混合專家模型微調版本,激活專家數提升至16,上下文窗口擴展至128k,適合複雜推理場景
TuKoResearch
AuriStream-1B是一個受生物啟發的GPT風格自迴歸Transformer模型,專門用於在長語音上下文中預測耳蝸標記。該模型使用約20秒(4096個標記)的長上下文窗口,在LibriLight數據集(約60000小時)上訓練了約500000步,能夠學習豐富的時間對齊表示並生成語音續寫。
JetBrains
JetBrains首個開源大語言模型(LLM)的微調版本,專為Python代碼相關任務優化,支持8192 token上下文窗口。
ibm-granite
Granite-4.0-Tiny-Base-Preview 是IBM開發的70億參數混合專家(MoE)語言模型,具有128k token上下文窗口,採用Mamba-2技術增強表達能力。
MCP Analyst是一個MCP服務器,支持Claude分析本地的CSV或Parquet文件,適用於處理超出上下文窗口限制的大型數據集或需要優化成本的場景。
Alpha Vantage MCP是一個提供股票和金融數據訪問的模型上下文協議服務器,整合了Alpha Vantage所有API端點功能,並通過優化端點組織減少上下文窗口使用。
一個用於擴展AI代理上下文窗口/記憶的MCP服務器,支持存儲、檢索和管理記憶內容,包含語義搜索功能。
一個結合Claude Code和Google Gemini AI的MCP服務器,通過多模型協作實現深度代碼分析,Claude擅長本地上下文操作和CLI工作流,Gemini則利用其超大上下文窗口進行分佈式系統調試和長軌跡分析。
一個與AI代碼編輯器集成的MCP服務器,通過Gemini 2.5的百萬token上下文窗口和任務管理功能,優化Cursor的代理能力。
Screeny MCP Server是一個專為macOS設計的隱私優先截圖服務,允許AI代理安全捕獲預先批准的應用程序窗口截圖,為開發和調試任務提供視覺上下文。
dap-mcp是一個基於模型上下文協議(MCP)的調試適配器協議(DAP)實現,旨在優化和擴展大型語言模型的上下文窗口,以增強調試工作流程。
基於Gemini的上下文管理與緩存MCP服務器,支持2M token大上下文窗口,提供會話管理和API緩存功能。
一個為AI工作流設計的智能文本摘要MCP服務器,提供命令輸出、文件內容和目錄結構的智能摘要功能,優化AI代理的上下文窗口管理。
一個基於Node.js的Deepseek R1語言模型MCP服務器實現,支持8192令牌上下文窗口,提供穩定的Claude Desktop集成和模型參數配置。
一個高性能的MCP服務器,為LLM與MongoDB之間提供高效的知識接口,支持小上下文窗口優化和多種領域數據模型。
一個用於擴展AI代理上下文窗口/記憶的MCP服務器,支持存儲、檢索和管理記憶,包含語義搜索功能。
一個為AI代理提供智能文本摘要功能的MCP服務器,優化上下文窗口管理並提升AI工作效率
dap-mcp是一個基於MCP協議的DAP會話管理工具,旨在優化和擴展大型語言模型的上下文窗口,提升調試工作流。
該項目實現了一個基於Gemini API的MCP服務器,提供對多種技術文檔的訪問能力。通過2M tokens的大上下文窗口,無需傳統RAG系統的分塊或檢索步驟,直接處理完整文檔。支持查詢文檔、檢查代碼規範、解決問題提示等功能,適用於Roo/Cline環境。
Claude Crew是一個創建自主編碼代理的工具,專注於通過高效上下文窗口使用最大化成本效益,優先通過單元測試驗證操作,並提供項目優化的MCP和上下文信息。
Qwen MCP工具是一個基於模型上下文協議的服務器,可將Qwen CLI與AI助手集成,提供大上下文窗口分析、文件處理、沙箱執行和多模型支持等功能
一個基於TypeScript的MCP服務器,實現LLM查詢系統,支持任務委派和上下文窗口卸載。
一個基於Gemini的MCP服務器實現,提供強大的上下文管理和緩存功能,支持高達200萬token的上下文窗口,適用於多種AI客戶端集成。
Temp Notes MCP Server是一個為AI代理設計的臨時信息存儲服務,支持跨對話和上下文存儲、檢索臨時筆記,幫助解決複雜任務中的上下文窗口限制問題。