谷歌正祕密測試其Gemini Flash系列新成員Nano Banana2Flash,該模型由科技博主MarsForTech曝光,是谷歌目前速度最快的生成式AI圖像模型,旨在提供更實惠、高效的視覺生成體驗。不過,它在推理深度、細節精確度及處理複雜創意任務方面存在性能上限。
Meta旗下Llama系列AI模型曾備受好評,但2025年4月推出的Llama4引發信任危機。Meta宣傳其基準測試表現優秀,但開發者實測發現性能遠低於宣傳,外界懷疑Meta在測試中可能採取了不當手段。
Meta AI發佈Pixio圖像模型,通過改進MAE框架,證明簡單訓練路徑在深度估計和3D重建等任務中性能卓越,挑戰了MAE遜於DINOv2等複雜算法的傳統認知。
初創公司Resemble AI發佈開源語音模型“Chatterbox Turbo”,挑戰行業巨頭。該模型僅需5秒音頻即可克隆語音,延遲低至150毫秒,適用於實時AI代理、客服、遊戲角色等場景,性能顯著提升。
一個API連接所有頂尖AI模型,高性能且性價比高,支持多類型生成。
Snowglobe幫助AI團隊在規模上測試LLM應用。在推出之前模擬真實對話,發現風險並提高模型性能。
GPT 5是下一代AI模型,提供卓越的編碼、數學和推理性能。
即時動態路由AI模型到最佳提供商,以實現最佳性能和成本節省。
Google
$0.49
輸入tokens/百萬
$2.1
輸出tokens/百萬
1k
上下文長度
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
$6
$24
$2
$20
$4
$16
Baidu
128
Bytedance
$1.2
$3.6
4
allenai
Olmo 3是由Allen Institute for AI開發的新一代語言模型家族,包含7B和32B的指令和思維變體。該模型在長鏈式思維方面表現出色,能顯著提升數學和編碼等推理任務的性能。所有代碼、檢查點和訓練細節都將公開,推動語言模型科學發展。
XiaomiMiMo
米模具身模型(MiMo-Embodied)是一款強大的跨具身視覺語言模型,在自動駕駛和具身AI任務中均展現出了卓越的性能。它是首個將這兩個關鍵領域相結合的開源視覺語言模型,顯著提升了在動態物理環境中的理解和推理能力。
Olmo 3是由Allen Institute for AI開發的一系列語言模型,包含7B和32B兩種規模,具有指令式和思考式兩種變體。該模型在長鏈式思維方面表現出色,能有效提升數學和編碼等推理任務的性能。採用多階段訓練方式,包括有監督微調、直接偏好優化和可驗證獎勵的強化學習。
alenphilip
這是一款專門用於Python代碼審查的AI模型,基於Qwen2.5-7B-Instruct微調,能夠識別安全漏洞、性能問題並提供代碼質量改進建議。
pnnbao-ump
VieNeu-TTS是首個可在個人設備上運行的越南語文本轉語音模型,具備即時語音克隆能力。基於NeuTTS Air微調,能夠生成自然逼真的越南語語音,在CPU上具備即時性能。
TheStageAI
TheWhisper-Large-V3-Turbo 是 OpenAI Whisper Large V3 模型的高性能微調版本,由 TheStage AI 針對多平臺即時、低延遲和低功耗語音轉文本推理進行優化。支持流式轉錄、單詞時間戳和可擴展性能,適用於即時字幕、會議和設備端語音界面等場景。
noctrex
這是慧慧AI模型Huihui-MoE-60B-A3B-abliterated的MXFP4_MOE量化版本,為文本生成提供支持。該量化版本基於特定的基礎模型進行處理,能在一定程度上優化模型的性能和使用體驗。
unsloth
Apertus是一款由瑞士AI開發的全開放多語言大語言模型,提供70億和80億兩種參數規模。該模型支持超過1000種語言,使用完全合規且開放的訓練數據,性能可與閉源模型相媲美。Apertus在15T標記上進行預訓練,採用分階段課程訓練方法,支持長達65,536個標記的上下文長度。
redponike
Apertus是一款由瑞士AI開發的全開放多語言大語言模型,參數規模達80億和700億,支持超過1000種語言和長上下文處理,僅使用完全合規的開放訓練數據,性能可與閉源模型相媲美。
GLM-4.6是智譜AI推出的新一代文本生成模型,相比GLM-4.5在多個方面有顯著改進,包括更長的上下文窗口、更優的編碼性能和更強的推理能力。該模型在多個公開基準測試中表現出色,與國內外領先模型相比具有競爭優勢。
GLM-4.6是智譜AI開發的新一代大語言模型,相比GLM-4.5在上下文處理、編碼能力和推理性能方面有顯著提升。該模型支持200K上下文長度,在多個公開基準測試中表現出色,特別在代碼生成、推理和代理任務方面具有競爭優勢。
zai-org
GLM-4.6是智譜AI推出的新一代文本生成模型,相比GLM-4.5在上下文處理、編碼性能、推理能力等方面實現顯著提升,支持200K上下文長度,具備更強的智能體能力和精緻的寫作能力。
GLM-4.6-FP8是智譜AI推出的新一代文本生成模型,相比GLM-4.5在多個關鍵方面有顯著改進。該模型具有更長的上下文窗口、卓越的編碼性能、高級推理能力和更強大的智能體功能,能夠處理更復雜的任務。
Salesforce
CoDA是Salesforce AI Research研發的基於擴散模型的代碼生成語言模型,具備雙向上下文理解能力,專為強大的代碼生成和補全任務而設計。該模型僅17億參數,在保持低計算要求的同時實現了卓越的代碼生成性能。
neuphonic
NeuTTS Air是世界上首個具備即時語音克隆功能的超逼真、端側文本轉語音(TTS)語言模型。基於0.5B參數的大語言模型骨幹構建,能為本地設備帶來自然的語音、即時性能、內置安全性和說話人克隆功能。
NeuTTS Air是全球首個具有即時語音克隆功能的超逼真設備端文本轉語音模型,基於0.5B參數的大語言模型骨幹構建,能在本地設備上實現自然語音生成、即時性能和說話人克隆功能。
NeuTTS Air是世界上首個具備即時語音克隆功能的超逼真、設備端文本轉語音(TTS)語言模型。基於0.5B大語言模型骨幹網絡構建,能為本地設備帶來自然的語音、即時性能、內置安全功能和說話人克隆能力。
nvidia
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,採用優化的Transformer架構,支持多模態輸入(文本和圖像),適用於多種AI應用場景。該模型通過TensorRT Model Optimizer進行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-8B FP4 模型是阿里巴巴Qwen3-8B模型的量化版本,採用優化的Transformer架構的自迴歸語言模型。該模型使用FP4量化技術,在保持性能的同時顯著減少內存佔用和計算需求,適用於AI智能體系統、聊天機器人、RAG系統等應用場景。
anikifoss
這是對Moonshot AI的Kimi-K2-Instruct-0905模型的高質量量化版本,採用HQ4_K量化方法,專門優化了推理性能,支持75000上下文長度,適用於文本生成任務。
PageSpeed MCP服務器是一個連接AI助手與谷歌PageSpeed Insights API的橋樑,為AI模型提供網站性能分析功能,包括核心性能指標、SEO評估、可訪問性審計和資源優化建議。
一個提供Google PageSpeed Insights分析的MCP服務器,幫助AI模型通過標準化接口分析網頁性能。
Meta Ads MCP是一個基於Model Context Protocol的服務器,用於通過標準化接口與Meta廣告API交互,使AI模型能夠訪問、分析和管理Meta廣告活動,包括獲取性能數據、可視化廣告創意和提供戰略建議。
MCP互聯網速度測試是一個實驗性項目,通過標準化的MCP協議為AI模型提供網絡性能測試工具,包括下載/上傳速度、延遲和抖動測量等功能。
Tailpipe MCP服務器是一個AI驅動的日誌分析工具,通過模型上下文協議連接AI助手與雲端/SaaS日誌數據,支持自然語言查詢和分析各類雲服務日誌,提供安全事件調查、成本性能洞察等功能。
OpenRouter MCP服務器提供與OpenRouter.ai模型生態系統的無縫集成,支持多種AI模型訪問和性能優化。
Yandex Tracker MCP服務器是一個為AI助手提供與Yandex Tracker API交互的模型上下文協議服務,支持隊列管理、用戶管理、問題操作和高級搜索功能,提供安全認證訪問和性能緩存。
Ultimate MCP Server是一個基於模型上下文協議(MCP)的AI代理操作系統,提供數十種強大工具能力,包括認知增強、工具使用和智能編排等功能。該系統通過標準化MCP工具暴露功能,使高級AI代理能訪問豐富的工具生態系統和專業化服務,同時優化成本、性能和質量。
交互式反饋MCP項目,通過集成模型上下文協議(MCP)在關鍵點提供智能交互反饋,優化AI助手的用戶交互流程,減少資源消耗並提升性能。
一個基於本地Ollama模型的AI代碼審計服務器,通過Model Context Protocol (MCP)集成,提供多維度代碼分析,包括安全性、完整性、性能、質量、架構、測試和文檔檢查。
Ultimate MCP Server是一個基於模型上下文協議(MCP)的AI代理操作系統,提供豐富的工具集和智能任務委派功能,支持多LLM供應商集成,優化成本與性能,實現複雜工作流自動化。
LRC-MCP Server是一個為LoadRunner Cloud提供模型上下文服務的項目,支持通過程序化方式訪問LRC資源與測試數據,便於構建性能工程工作流、儀表盤及AI集成。
一個基於Model Context Protocol的服務,提供Google PageSpeed Insights網頁性能分析功能,使AI模型能通過標準化接口評估網頁加載表現。
LLM Gateway是一個基於MCP協議的服務器,支持高級AI代理(如Claude 3.7)將任務智能委託給成本更低的LLM模型(如Gemini Flash),實現成本優化和性能平衡。