Meta旗下Threads推出“Dear Algo”功能,用户可通过发布以“Dear Algo”开头的公开动态,用文本指令自定义内容推送偏好,直接干预算法推荐,打破以往社交平台“黑盒”式的推荐机制。
AI通过分析照片预测职场表现。研究团队利用算法分析9.6万名MBA毕业生的LinkedIn头像,提取“大五人格”特征,发现AI性格分析能预测薪资和晋升路径。
科大讯飞发布“星火X2”大模型,基于全国产算力训练,在算法与工程上实现突破。该模型在数学、逻辑推理、语言理解及智能体等核心能力上对标国际顶尖水平,并聚焦行业应用需求,推动国产大模型发展进入新阶段。
春节红包大战升级为AI入口争夺战,各大公司通过高薪招聘AI人才,如阿里通义千问为算法工程师开出天价年薪,展现大模型时代对核心技术的激烈竞争。
利用先进的AI算法解锁大规模视频洞见的Memories.ai。
一个智能助手,通过自然语言简化 AI 算法的调试和部署。
一个用于专家并行负载均衡的开源算法,旨在优化多GPU环境下的专家分配和负载平衡。
一种用于V3/R1训练中计算与通信重叠的双向流水线并行算法。
Huawei
-
Input tokens/M
Output tokens/M
32
Context Length
Chatglm
128
Minimax
$100
prithivMLmods
VibeThinker-1.5B是微博AI推出的15亿参数密集语言模型,基于Qwen2.5-Math-1.5B微调,专门针对数学和算法编码问题设计。采用'频谱到信号原理'框架训练,在多个数学竞赛测试中超越规模更大的模型,训练成本约7800美元,支持最长约40k词元的输出。
mlx-community
VibeThinker-1.5B的4位量化版本,基于MLX框架针对苹果芯片优化,是一个拥有15亿参数的密集语言模型,专门用于数学推理和算法编码问题
nightmedia
Qwen3-30B-A3B-YOYO-V5-qx86-hi是YOYO系列的最新版本,采用Deckard(qx)量化技术和YOYO-Fusion融合算法,在各项基准测试中表现均衡稳定,展现出接近人类思维方式的推理能力。
RedHatAI
这是一个基于EAGLE-3推测解码算法的推测器模型,专门设计用于与Qwen/Qwen3-32B模型配合使用,通过推测解码技术提升文本生成效率,在数学推理和通用问答方面有良好表现。
Mungert
MiniCPM4.1-8B GGUF是专为端侧设备设计的高效大语言模型,在模型架构、训练数据、训练算法和推理系统四个关键维度进行了系统创新,实现了极致的效率提升。支持65,536个标记的上下文长度和混合推理模式。
pytorch
这是由PyTorch团队使用torchao进行量化的Qwen3-8B模型,采用int4仅权重量化和AWQ算法。该模型在H100 GPU上可减少53%显存使用并实现1.34倍加速,专门针对mmlu_abstract_algebra任务进行了校准优化。
GetSoloTech
这是GPT-OSS-Code-Reasoning-20B模型的GGUF量化版本,针对高效推理进行了优化,降低了内存需求。该模型专门针对竞赛编程和算法推理任务进行了有监督微调,能够生成Python/C++解决方案和推理过程。
Intel
这是Qwen3-Coder-30B-A3B-Instruct模型的量化版本,通过AutoRound算法转换为gguf q4km格式,在保证性能的同时可在更多设备上高效运行。该模型专门用于代码生成任务,支持多种编程语言。
这是一个基于EAGLE-3推测解码算法的文本生成模型,专为与meta-llama/Llama-3.1-8B-Instruct配合使用而设计。通过推测解码技术提升文本生成效率,支持多种语言。
专为Qwen/Qwen3-8B设计的推测解码模型,采用EAGLE-3算法提升文本生成效率和质量,通过多个优质数据集训练获得优秀的泛化能力
MiniCPM4-8B是专为端侧设备设计的高效大语言模型,通过模型架构、训练数据、训练算法和推理系统四个维度的创新,实现了极致的效率提升。
PaddlePaddle
PP-OCRv3_mobile_rec 是 PaddleOCR 团队开发的轻量级文本行识别模型,采用 SVTR 算法,支持中英文识别,尤其专注于中文场景。
openbmb
MiniCPM4是专为端侧设备设计的高效大语言模型,通过系统创新在模型架构、训练数据、训练算法和推理系统四个关键维度实现极致的效率提升。
MiniCPM4是专为端侧设备设计的高效大语言模型,通过系统创新在模型架构、训练数据、训练算法和推理系统四个维度实现极致效率提升,在端侧芯片上可实现超5倍的生成加速。
Sci-fi-vy
DeepSeek-R1-0528是DeepSeek R1系列的小版本升级模型,通过增加计算资源和算法优化显著提升了推理深度和能力,在数学、编程等多个基准测试中表现出色。
这是一个基于DeepSeek-R1-0528-Qwen3-8B模型,使用Intel的AutoRound算法进行INT4量化的开源大语言模型。该模型在保持较高性能的同时,显著降低了模型大小和推理资源需求,适用于在CPU、Intel GPU或CUDA等设备上进行高效推理。
cognitivecomputations
DeepSeek-R1-0528是DeepSeek R1模型的小版本升级,通过增加计算资源和算法优化显著提升了推理能力,在数学、编程和通用逻辑等多个基准评估中表现出色。
deepseek-ai
DeepSeek R1模型已完成小幅版本升级,当前版本为DeepSeek-R1-0528。在最新更新中,DeepSeek R1通过增加计算资源投入并在后训练阶段引入算法优化机制,显著提升了其深度推理与推断能力。
Qwen3-8B的INT4量化版本,通过GPTQ算法将权重量化为4位整数,显著减少75%的磁盘空间和GPU内存需求,同时保持接近原始模型的性能表现。适用于推理、函数调用和多语言指令跟随等场景。
SVECTOR-CORPORATION
Spec-T1-RL-7B 是一款专注于数学推理、算法问题解决和代码生成的高精度大语言模型,在技术基准测试中表现卓越。
MCP Reasoner是为Claude Desktop设计的推理增强工具,提供Beam Search和MCTS两种搜索策略,通过实验性算法提升复杂问题解决能力。
MCP推理器是为Claude Desktop设计的增强推理能力的工具,提供波束搜索和蒙特卡洛树搜索两种算法,并新增实验性策略模拟层以优化复杂问题解决。
一个用于加密/解密/算法/哈希的模型上下文协议(MCP)服务器,支持AES、DES、多种哈希算法及编解码功能
该项目是基于Mozilla Readability算法的Python实现,通过MCP协议提供网页内容提取和转换服务,将网页内容转换为适合LLM处理的Markdown格式。
基于Cloudflare Workers的智能图标搜索推荐服务,通过多算法语义匹配实现高效图标发现
一个基于强化学习的智能电商对话代理系统,集成了本体推理、业务工具链、对话记忆和Gradio界面,通过Stable Baselines3 PPO算法实现从数据到训练再到部署的闭环学习,能自主优化购物助手的决策策略。
Shebe是一个基于BM25算法的快速代码全文搜索服务,专为Claude Code设计,提供低延迟、高效率的代码内容检索,支持多语言代码库搜索和符号引用查找。
一个为NebulaGraph实现的模型上下文协议(MCP)服务器,提供对NebulaGraph的无缝访问,支持图探索、查询和快捷算法,易于与LLM工具系统集成。
Context Engineering MCP平台是一个AI上下文管理与优化平台,通过系统化的方法设计、管理和优化AI模型的输入信息,实现提示工程的工程化。平台提供智能分析引擎、优化算法、模板管理等功能,显著提升AI响应质量、降低API成本,并支持多模态内容处理。
一个提供随机算法和概率决策能力的MCP服务器,通过高级数学模型扩展顺序思维,帮助AI助手打破局部思维模式,进行更优的决策规划。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化算法和4位量化技术,实现2倍训练速度提升和80%显存节省,支持多种主流模型。
一个基于Python的MCP服务器,使用Mozilla Readability算法提取网页内容并转换为优化的Markdown格式。
PentestThinkingMCP是一个基于大型语言模型和MCP协议的自动化渗透测试框架,能够通过Beam Search和MCTS算法规划攻击路径,为CTF、HTB及真实渗透测试提供步骤推理、工具推荐和关键路径分析。
一个通过多类型数据库集成增强AI编程能力的记忆系统,包含向量数据库、SQLite和知识图谱,用于存储和检索代码模式、算法及编程概念关系。
QGISMCP是一个连接QGIS与Claude AI的插件,通过Model Context Protocol实现双向通信,允许AI直接控制QGIS进行地图项目创建、图层加载、处理算法执行等操作。
一个优化的Playwright MCP服务器,采用客户端-服务端架构实现浏览器自动化,通过创新的语义快照算法大幅减少页面内容传输量,保留关键元素的同时降低90%的token消耗。
RepoMap是一个强大的代码库分析与导航工具,可作为命令行应用或MCP服务器使用,通过Tree-sitter解析代码和PageRank算法智能分析代码结构并生成优先级排序的代码地图
NSAF MCP服务器是一个实现模型上下文协议(MCP)的服务端,用于连接AI助手与神经符号自主框架(NSAF),提供进化算法和架构对比功能。
DocuMind MCP Server是一个基于神经网络的下一代文档质量分析服务器,通过先进算法提供README评估、SVG头图扫描、多语言支持等功能,为开发者提供AI驱动的文档改进建议。
一个用于搜索MCP协议文档的MCP服务器,提供基于BM25算法的智能搜索和文档获取功能。