微軟Azure ND GB300v6虛擬機在Llama270B模型上創下每秒110萬token推理速度新紀錄。該成就基於與英偉達的深度合作,採用配備72個Blackwell Ultra GPU和36個Grace CPU的NVIDIA GB300NVL72系統,突顯微軟在規模化AI運算領域的專業實力。
Qwen3-Coder系列迎來了新成員——Qwen3-Coder-Flash,這款被開發者親切稱爲“甜品級”的編程模型以其卓越的性能和高效的運行速度,爲編程領域帶來了新的驚喜。 Qwen3-Coder-Flash的全稱爲Qwen3-Coder-30B-A3B-Instruct,它在性能和效率方面表現出色,特別是在代理式編程(Agentic Coding)、瀏覽器使用(Agentic Browser-Use)和工具調用(Tool Use)等領域,展現了超強的Agent能力。這一能力不僅超越了當前的頂級開源模型,僅略遜於頂配版
B站AI內容生態爆發:2025年Q1數據顯示,平臺AI相關內容日均播放時長增長超100%,投稿量增長130%,1.4億月活用戶中95後佔比超80%。平臺首發TOP30AI應用榜單,Deepseek等產品位居前列,並催生趣味創作內容。頭部創作者效應顯著,全網AI領域前十UP主均來自B站。視頻播客成新增長點,消費時長同比增長270%。B站通過開放AI體驗區和播客間,持續引領AI內容傳播新趨勢。
AI編碼工具Windsurf宣佈重新上線Anthropic的Claude Sonnet4模型,爲Pro用戶提供每月250次調用權限(2倍信用消耗)。該模型以72.7%的SWE-bench測試表現著稱,支持200K token上下文窗口,能實現代碼生成、複雜重構等功能。此前因Anthropic限制直接訪問,Windsurf曾推出BYOK方案應對。此次恢復合作被視爲市場競爭下的重要突破,但2倍計費模式可能增加用戶成本。未來平臺或將進一步優化模型集成與定價策略。
Nav ai助您發現最佳AI工具,提升生產力,提供專家指南。
OpenAI 提供的內置工具,用於擴展模型的能力,如網絡搜索和文件搜索。
Tolan: Alien Best Friend 是一款以聊天和情感陪伴為核心功能的社交類APP。
基於AI生成圖像的3D渲染模型
EightiesPower
bl00dsqibWan22-lora是一個基於AI Toolkit by Ostris訓練的LoRA模型,專門用於圖像到視頻處理任務,為圖像和視頻處理領域提供了新的解決方案。
bartowski
這是ToastyPigeon的i-added-glitter模型的量化版本,使用llama.cpp的imatrix選項進行量化處理,提供多種量化級別選擇,旨在在不同硬件條件下實現高效運行。
rhysjones
該模型源自karpathy的llm.c項目,為研究bfloat16性能而轉換為HuggingFace格式,訓練過程消耗了1500億token。
Trendyol
Trendyol LLM v4.1.0 是一款基於 Trendyol LLM base v4.0(在130億token上繼續預訓練的Qwen2.5 7B版本)的生成模型,專注於電商領域和土耳其語理解。
makiart
由Algomatic團隊開發的多語言大型BERT模型,支持8192上下文長度,訓練約600億token,適用於填充掩碼任務。
speakleash
Bielik-11B-v2 是一個擁有110億參數的生成式文本模型,專為波蘭語文本開發訓練,基於Mistral-7B-v0.2初始化,訓練了4000億個token。
akiFQC
基於tohoku-nlp/bert-base-japanese-v3訓練的日語自然語言推理交叉編碼器,支持蘊含、中立、矛盾三類判斷
1bitLLM
BitNet b1.58是一種1位大語言模型,參數規模為30億,使用RedPajama數據集訓練了1000億個token。
BitNet b1.58 3B是一種1位量化的大型語言模型,使用RedPajama數據集訓練了1000億token,在保持性能的同時顯著降低了計算資源需求。
BitNet b1.58是一種1.58位量化的大語言模型,通過量化權重到{-1,0,1}三值實現高效推理。該模型復現了原論文結果,在RedPajama數據集上訓練了1000億token。
cerebras
BTLM-3B-8k-base是一個具有8k上下文長度的30億參數語言模型,基於6270億token的SlimPajama數據集訓練而成,性能可媲美開源70億參數模型。
TurkuNLP
面向芬蘭語的15億參數生成式預訓練Transformer模型,基於BLOOM架構訓練3000億token
Bingsu
基於kss數據集訓練的Tacotron2韓語文本轉語音模型
Toshifumi
基於bert-base-multilingual-cased在emotion數據集上微調的多語言情感分類模型
tohoku-nlp
基於日語維基百科預訓練的BERT模型,採用字符級分詞與全詞掩碼策略,適用於日語自然語言處理任務
基於日語維基百科預訓練的BERT模型,採用Unidic詞典進行詞彙級分詞和整詞掩碼訓練
基於日語文本預訓練的BERT模型,採用字符級分詞和全詞掩碼技術,適用於日語自然語言處理任務。
基於日語維基百科文本預訓練的BERT模型,使用IPA詞典進行詞語級分詞處理,適用於日語自然語言處理任務。
基於日語維基百科預訓練的BERT大型模型,採用Unidic詞典分詞和全詞掩碼策略
針對日語文本預訓練的BERT模型,採用字符級分詞和全詞掩碼機制,基於日語維基百科2020年8月31日版本訓練
MCPilot是一個在ETHGlobal黑客松上開發的項目,通過MCP服務器讓LLM能安全地與區塊鏈交互,用戶無需暴露私鑰即可通過MetaMask錢包完成操作。
MCP BatchIt是一個MCP工具調用批處理服務器,通過聚合多個MCP工具調用到一個請求中,顯著減少AI代理的通信開銷和token消耗。
Maven Tools MCP Server是一個基於Spring Boot的MCP協議服務器,為JVM構建工具(Maven、Gradle、SBT、Mill等)提供Maven中央倉庫依賴智能分析服務。它通過直接讀取Maven Central的元數據文件,提供快速、準確的依賴版本查詢、批量分析、版本比較和項目健康評估等功能,並集成了Context7文檔服務。
MCP Web Search Tool是一個為AI助手提供實時網絡搜索能力的服務器工具,支持可插拔的搜索引擎集成,目前主要使用Brave Search API。
Alterx MCP是一個連接Alterx子域名置換工具與MCP生態系統的橋樑,支持通過標準化協議將子域名生成功能集成到自動化工作流中。
該項目是一個基於TypeScript的MCP服務器實現,使用Server-Sent Events (SSE)進行即時消息傳輸,並通過Bearer Token進行安全認證。它支持與LLM主機等客戶端的即時通信,並提供了四個基礎數學工具作為示例。
BrowserTools MCP是一個強大的瀏覽器監控與交互工具,通過Chrome擴展實現AI應用對瀏覽器數據的捕獲與分析,支持多種審計和調試功能。