騰訊WorkBuddy智能體與聯通雲達成合作,預集成至聯通AI雲桌面,實現算力與算法融合,構建預配置、高合規、自主任務執行的雲端辦公生態。該方案解決了傳統辦公環境部署複雜、調試周期長的問題,降低了企業和開發者的使用門檻。
加州大學聖克魯茲分校團隊開發AI算法Neo,可消除大氣湍流導致的圖像模糊,使智利薇拉·C·魯賓天文臺的地面望遠鏡拍攝質量達到太空望遠鏡水平。該技術提升分辨率並加速天文發現進程。
英偉達全球副總裁吳新宙近日透露,該公司正以“五層蛋糕”全棧生態佈局自動駕駛,涵蓋芯片、系統、算法、數據與雲平臺。L4級自動駕駛預計2025年實現落地。英偉達從芯片商轉型爲“三臺計算機”模式,推動車端推理、訓練與仿真協同,加速物理AI在出行領域的商業化進程。
移動端運行大模型已成常態,而瀏覽器內置強大AI能力成爲新趨勢。開發者利用Google的TurboQuant算法,成功將Gemma4模型部署到瀏覽器中,用戶無需API配置或訂閱費用,即可在本地實現流暢AI交互。核心是TurboQuant算法帶來的記憶革命。
利用先進的AI算法解鎖大規模視頻洞見的Memories.ai。
一個智能助手,通過自然語言簡化 AI 算法的調試和部署。
一個用於專家並行負載均衡的開源算法,旨在優化多GPU環境下的專家分配和負載平衡。
一種用於V3/R1訓練中計算與通信重疊的雙向流水線並行算法。
Huawei
-
輸入tokens/百萬
輸出tokens/百萬
32
上下文長度
Chatglm
128
Minimax
$100
prithivMLmods
VibeThinker-1.5B是微博AI推出的15億參數密集語言模型,基於Qwen2.5-Math-1.5B微調,專門針對數學和算法編碼問題設計。採用'頻譜到信號原理'框架訓練,在多個數學競賽測試中超越規模更大的模型,訓練成本約7800美元,支持最長約40k詞元的輸出。
mlx-community
VibeThinker-1.5B的4位量化版本,基於MLX框架針對蘋果芯片優化,是一個擁有15億參數的密集語言模型,專門用於數學推理和算法編碼問題
nightmedia
Qwen3-30B-A3B-YOYO-V5-qx86-hi是YOYO系列的最新版本,採用Deckard(qx)量化技術和YOYO-Fusion融合算法,在各項基準測試中表現均衡穩定,展現出接近人類思維方式的推理能力。
RedHatAI
這是一個基於EAGLE-3推測解碼算法的推測器模型,專門設計用於與Qwen/Qwen3-32B模型配合使用,通過推測解碼技術提升文本生成效率,在數學推理和通用問答方面有良好表現。
Mungert
MiniCPM4.1-8B GGUF是專為端側設備設計的高效大語言模型,在模型架構、訓練數據、訓練算法和推理系統四個關鍵維度進行了系統創新,實現了極致的效率提升。支持65,536個標記的上下文長度和混合推理模式。
pytorch
這是由PyTorch團隊使用torchao進行量化的Qwen3-8B模型,採用int4僅權重量化和AWQ算法。該模型在H100 GPU上可減少53%顯存使用並實現1.34倍加速,專門針對mmlu_abstract_algebra任務進行了校準優化。
GetSoloTech
這是GPT-OSS-Code-Reasoning-20B模型的GGUF量化版本,針對高效推理進行了優化,降低了內存需求。該模型專門針對競賽編程和算法推理任務進行了有監督微調,能夠生成Python/C++解決方案和推理過程。
Intel
這是Qwen3-Coder-30B-A3B-Instruct模型的量化版本,通過AutoRound算法轉換為gguf q4km格式,在保證性能的同時可在更多設備上高效運行。該模型專門用於代碼生成任務,支持多種編程語言。
這是一個基於EAGLE-3推測解碼算法的文本生成模型,專為與meta-llama/Llama-3.1-8B-Instruct配合使用而設計。通過推測解碼技術提升文本生成效率,支持多種語言。
專為Qwen/Qwen3-8B設計的推測解碼模型,採用EAGLE-3算法提升文本生成效率和質量,通過多個優質數據集訓練獲得優秀的泛化能力
MiniCPM4-8B是專為端側設備設計的高效大語言模型,通過模型架構、訓練數據、訓練算法和推理系統四個維度的創新,實現了極致的效率提升。
PaddlePaddle
PP-OCRv3_mobile_rec 是 PaddleOCR 團隊開發的輕量級文本行識別模型,採用 SVTR 算法,支持中英文識別,尤其專注於中文場景。
openbmb
MiniCPM4是專為端側設備設計的高效大語言模型,通過系統創新在模型架構、訓練數據、訓練算法和推理系統四個關鍵維度實現極致的效率提升。
MiniCPM4是專為端側設備設計的高效大語言模型,通過系統創新在模型架構、訓練數據、訓練算法和推理系統四個維度實現極致效率提升,在端側芯片上可實現超5倍的生成加速。
Sci-fi-vy
DeepSeek-R1-0528是DeepSeek R1系列的小版本升級模型,通過增加計算資源和算法優化顯著提升了推理深度和能力,在數學、編程等多個基準測試中表現出色。
cognitivecomputations
DeepSeek-R1-0528是DeepSeek R1模型的小版本升級,通過增加計算資源和算法優化顯著提升了推理能力,在數學、編程和通用邏輯等多個基準評估中表現出色。
Qwen3-8B的INT4量化版本,通過GPTQ算法將權重量化為4位整數,顯著減少75%的磁盤空間和GPU內存需求,同時保持接近原始模型的性能表現。適用於推理、函數調用和多語言指令跟隨等場景。
SVECTOR-CORPORATION
Spec-T1-RL-7B 是一款專注於數學推理、算法問題解決和代碼生成的高精度大語言模型,在技術基準測試中表現卓越。
grimjim
MagTie-v1-12B是一個基於DARE TIES算法合併的12B參數語言模型,融合了多個預訓練模型的優勢
Qwen3-4B-quantized.w4a16是基於Qwen3-4B模型通過GPTQ算法進行INT4權重量化的高效版本,顯著減少了磁盤大小和GPU內存需求約75%,同時保持接近原始模型的性能表現。
MCP推理器是為Claude Desktop設計的增強推理能力的工具,提供波束搜索和蒙特卡洛樹搜索兩種算法,並新增實驗性策略模擬層以優化複雜問題解決。
MCP Reasoner是為Claude Desktop設計的推理增強工具,提供Beam Search和MCTS兩種搜索策略,通過實驗性算法提升複雜問題解決能力。
RepoMap是一個強大的代碼庫分析與導航工具,可作為命令行應用或MCP服務器使用,通過Tree-sitter解析代碼和PageRank算法智能分析代碼結構並生成優先級排序的代碼地圖
Skill Retriever是一個基於圖數據庫的MCP服務器,專門用於Claude Code組件的檢索和安裝。它自動索引GitHub上的組件倉庫,通過語義搜索和圖遍歷算法,根據任務描述返回最小正確組件集及其依賴,並支持安全掃描和自動同步更新。
Shebe是一個基於BM25算法的快速代碼全文搜索服務,專為Claude Code設計,提供低延遲、高效率的代碼內容檢索,支持多語言代碼庫搜索和符號引用查找。
一個基於Python的MCP服務器,使用Mozilla Readability算法提取網頁內容並轉換為優化的Markdown格式。
Context Engineering MCP平臺是一個AI上下文管理與優化平臺,通過系統化的方法設計、管理和優化AI模型的輸入信息,實現提示工程的工程化。平臺提供智能分析引擎、優化算法、模板管理等功能,顯著提升AI響應質量、降低API成本,並支持多模態內容處理。
QuantConnect Lean算法交易引擎一體化Docker鏡像,支持GPU自動選擇、現代Web界面、REST API和MCP協議集成
基於large-text-viewer的trace分析工具,支持Trae Skill和MCP服務器兩種模式,提供文本搜索、魔數識別、搜索結果優化等功能,用於逆向工程和算法分析。
一個基於強化學習的智能電商對話代理系統,集成了本體推理、業務工具鏈、對話記憶和Gradio界面,通過Stable Baselines3 PPO算法實現從數據到訓練再到部署的閉環學習,能自主優化購物助手的決策策略。
一個通過多類型數據庫集成增強AI編程能力的記憶系統,包含向量數據庫、SQLite和知識圖譜,用於存儲和檢索代碼模式、算法及編程概念關係。
一個優化的Playwright MCP服務器,採用客戶端-服務端架構實現瀏覽器自動化,通過創新的語義快照算法大幅減少頁面內容傳輸量,保留關鍵元素的同時降低90%的token消耗。
一個提供隨機算法和概率決策能力的MCP服務器,通過高級數學模型擴展順序思維,幫助AI助手打破局部思維模式,進行更優的決策規劃。
一個用於加密/解密/算法/哈希的模型上下文協議(MCP)服務器,支持AES、DES、多種哈希算法及編解碼功能
PentestThinkingMCP是一個基於大型語言模型和MCP協議的自動化滲透測試框架,能夠通過Beam Search和MCTS算法規劃攻擊路徑,為CTF、HTB及真實滲透測試提供步驟推理、工具推薦和關鍵路徑分析。
Unsloth MCP Server是一個用於高效微調大語言模型的服務器,通過優化算法和4位量化技術,實現2倍訓練速度提升和80%顯存節省,支持多種主流模型。
基於Cloudflare Workers的智能圖標搜索推薦服務,通過多算法語義匹配實現高效圖標發現
QGISMCP是一個連接QGIS與Claude AI的插件,通過Model Context Protocol實現雙向通信,允許AI直接控制QGIS進行地圖項目創建、圖層加載、處理算法執行等操作。
一個為NebulaGraph實現的模型上下文協議(MCP)服務器,提供對NebulaGraph的無縫訪問,支持圖探索、查詢和快捷算法,易於與LLM工具系統集成。
該項目是基於Mozilla Readability算法的Python實現,通過MCP協議提供網頁內容提取和轉換服務,將網頁內容轉換為適合LLM處理的Markdown格式。