Meta旗下Threads推出“Dear Algo”功能,用戶可通過發佈以“Dear Algo”開頭的公開動態,用文本指令自定義內容推送偏好,直接干預算法推薦,打破以往社交平臺“黑盒”式的推薦機制。
AI通過分析照片預測職場表現。研究團隊利用算法分析9.6萬名MBA畢業生的LinkedIn頭像,提取“大五人格”特徵,發現AI性格分析能預測薪資和晉升路徑。
科大訊飛發佈“星火X2”大模型,基於全國產算力訓練,在算法與工程上實現突破。該模型在數學、邏輯推理、語言理解及智能體等核心能力上對標國際頂尖水平,並聚焦行業應用需求,推動國產大模型發展進入新階段。
春節紅包大戰升級爲AI入口爭奪戰,各大公司通過高薪招聘AI人才,如阿里通義千問爲算法工程師開出天價年薪,展現大模型時代對核心技術的激烈競爭。
利用先進的AI算法解鎖大規模視頻洞見的Memories.ai。
一個智能助手,通過自然語言簡化 AI 算法的調試和部署。
一個用於專家並行負載均衡的開源算法,旨在優化多GPU環境下的專家分配和負載平衡。
一種用於V3/R1訓練中計算與通信重疊的雙向流水線並行算法。
Huawei
-
輸入tokens/百萬
輸出tokens/百萬
32
上下文長度
Chatglm
128
Minimax
$100
prithivMLmods
VibeThinker-1.5B是微博AI推出的15億參數密集語言模型,基於Qwen2.5-Math-1.5B微調,專門針對數學和算法編碼問題設計。採用'頻譜到信號原理'框架訓練,在多個數學競賽測試中超越規模更大的模型,訓練成本約7800美元,支持最長約40k詞元的輸出。
mlx-community
VibeThinker-1.5B的4位量化版本,基於MLX框架針對蘋果芯片優化,是一個擁有15億參數的密集語言模型,專門用於數學推理和算法編碼問題
nightmedia
Qwen3-30B-A3B-YOYO-V5-qx86-hi是YOYO系列的最新版本,採用Deckard(qx)量化技術和YOYO-Fusion融合算法,在各項基準測試中表現均衡穩定,展現出接近人類思維方式的推理能力。
RedHatAI
這是一個基於EAGLE-3推測解碼算法的推測器模型,專門設計用於與Qwen/Qwen3-32B模型配合使用,通過推測解碼技術提升文本生成效率,在數學推理和通用問答方面有良好表現。
Mungert
MiniCPM4.1-8B GGUF是專為端側設備設計的高效大語言模型,在模型架構、訓練數據、訓練算法和推理系統四個關鍵維度進行了系統創新,實現了極致的效率提升。支持65,536個標記的上下文長度和混合推理模式。
pytorch
這是由PyTorch團隊使用torchao進行量化的Qwen3-8B模型,採用int4僅權重量化和AWQ算法。該模型在H100 GPU上可減少53%顯存使用並實現1.34倍加速,專門針對mmlu_abstract_algebra任務進行了校準優化。
GetSoloTech
這是GPT-OSS-Code-Reasoning-20B模型的GGUF量化版本,針對高效推理進行了優化,降低了內存需求。該模型專門針對競賽編程和算法推理任務進行了有監督微調,能夠生成Python/C++解決方案和推理過程。
Intel
這是Qwen3-Coder-30B-A3B-Instruct模型的量化版本,通過AutoRound算法轉換為gguf q4km格式,在保證性能的同時可在更多設備上高效運行。該模型專門用於代碼生成任務,支持多種編程語言。
這是一個基於EAGLE-3推測解碼算法的文本生成模型,專為與meta-llama/Llama-3.1-8B-Instruct配合使用而設計。通過推測解碼技術提升文本生成效率,支持多種語言。
專為Qwen/Qwen3-8B設計的推測解碼模型,採用EAGLE-3算法提升文本生成效率和質量,通過多個優質數據集訓練獲得優秀的泛化能力
MiniCPM4-8B是專為端側設備設計的高效大語言模型,通過模型架構、訓練數據、訓練算法和推理系統四個維度的創新,實現了極致的效率提升。
PaddlePaddle
PP-OCRv3_mobile_rec 是 PaddleOCR 團隊開發的輕量級文本行識別模型,採用 SVTR 算法,支持中英文識別,尤其專注於中文場景。
openbmb
MiniCPM4是專為端側設備設計的高效大語言模型,通過系統創新在模型架構、訓練數據、訓練算法和推理系統四個關鍵維度實現極致的效率提升。
MiniCPM4是專為端側設備設計的高效大語言模型,通過系統創新在模型架構、訓練數據、訓練算法和推理系統四個維度實現極致效率提升,在端側芯片上可實現超5倍的生成加速。
Sci-fi-vy
DeepSeek-R1-0528是DeepSeek R1系列的小版本升級模型,通過增加計算資源和算法優化顯著提升了推理深度和能力,在數學、編程等多個基準測試中表現出色。
cognitivecomputations
DeepSeek-R1-0528是DeepSeek R1模型的小版本升級,通過增加計算資源和算法優化顯著提升了推理能力,在數學、編程和通用邏輯等多個基準評估中表現出色。
Qwen3-8B的INT4量化版本,通過GPTQ算法將權重量化為4位整數,顯著減少75%的磁盤空間和GPU內存需求,同時保持接近原始模型的性能表現。適用於推理、函數調用和多語言指令跟隨等場景。
SVECTOR-CORPORATION
Spec-T1-RL-7B 是一款專注於數學推理、算法問題解決和代碼生成的高精度大語言模型,在技術基準測試中表現卓越。
grimjim
MagTie-v1-12B是一個基於DARE TIES算法合併的12B參數語言模型,融合了多個預訓練模型的優勢
Qwen3-4B-quantized.w4a16是基於Qwen3-4B模型通過GPTQ算法進行INT4權重量化的高效版本,顯著減少了磁盤大小和GPU內存需求約75%,同時保持接近原始模型的性能表現。
MCP推理器是為Claude Desktop設計的增強推理能力的工具,提供波束搜索和蒙特卡洛樹搜索兩種算法,並新增實驗性策略模擬層以優化複雜問題解決。
MCP Reasoner是為Claude Desktop設計的推理增強工具,提供Beam Search和MCTS兩種搜索策略,通過實驗性算法提升複雜問題解決能力。
RepoMap是一個強大的代碼庫分析與導航工具,可作為命令行應用或MCP服務器使用,通過Tree-sitter解析代碼和PageRank算法智能分析代碼結構並生成優先級排序的代碼地圖
Shebe是一個基於BM25算法的快速代碼全文搜索服務,專為Claude Code設計,提供低延遲、高效率的代碼內容檢索,支持多語言代碼庫搜索和符號引用查找。
一個基於Python的MCP服務器,使用Mozilla Readability算法提取網頁內容並轉換為優化的Markdown格式。
Context Engineering MCP平臺是一個AI上下文管理與優化平臺,通過系統化的方法設計、管理和優化AI模型的輸入信息,實現提示工程的工程化。平臺提供智能分析引擎、優化算法、模板管理等功能,顯著提升AI響應質量、降低API成本,並支持多模態內容處理。
一個通過多類型數據庫集成增強AI編程能力的記憶系統,包含向量數據庫、SQLite和知識圖譜,用於存儲和檢索代碼模式、算法及編程概念關係。
一個優化的Playwright MCP服務器,採用客戶端-服務端架構實現瀏覽器自動化,通過創新的語義快照算法大幅減少頁面內容傳輸量,保留關鍵元素的同時降低90%的token消耗。
一個基於強化學習的智能電商對話代理系統,集成了本體推理、業務工具鏈、對話記憶和Gradio界面,通過Stable Baselines3 PPO算法實現從數據到訓練再到部署的閉環學習,能自主優化購物助手的決策策略。
一個提供隨機算法和概率決策能力的MCP服務器,通過高級數學模型擴展順序思維,幫助AI助手打破局部思維模式,進行更優的決策規劃。
PentestThinkingMCP是一個基於大型語言模型和MCP協議的自動化滲透測試框架,能夠通過Beam Search和MCTS算法規劃攻擊路徑,為CTF、HTB及真實滲透測試提供步驟推理、工具推薦和關鍵路徑分析。
Unsloth MCP Server是一個用於高效微調大語言模型的服務器,通過優化算法和4位量化技術,實現2倍訓練速度提升和80%顯存節省,支持多種主流模型。
一個用於加密/解密/算法/哈希的模型上下文協議(MCP)服務器,支持AES、DES、多種哈希算法及編解碼功能
QGISMCP是一個連接QGIS與Claude AI的插件,通過Model Context Protocol實現雙向通信,允許AI直接控制QGIS進行地圖項目創建、圖層加載、處理算法執行等操作。
基於Cloudflare Workers的智能圖標搜索推薦服務,通過多算法語義匹配實現高效圖標發現
一個為NebulaGraph實現的模型上下文協議(MCP)服務器,提供對NebulaGraph的無縫訪問,支持圖探索、查詢和快捷算法,易於與LLM工具系統集成。
該項目是基於Mozilla Readability算法的Python實現,通過MCP協議提供網頁內容提取和轉換服務,將網頁內容轉換為適合LLM處理的Markdown格式。
NebulaGraph的模型上下文協議服務器實現,提供對NebulaGraph的無縫訪問,支持圖探索、查詢和快捷算法。
一個用於搜索MCP協議文檔的MCP服務器,提供基於BM25算法的智能搜索和文檔獲取功能。
NSAF MCP服務器是一個基於Model Context Protocol的神經符號自主框架服務端,允許AI助手通過MCP協議與NSAF框架交互,提供進化算法運行、智能體架構比較等功能。