马斯克批评政府医疗体系效率低下,提出由AI大模型Grok进行智能诊断,特斯拉人形机器人执行手术护理,以实现高效普惠医疗。
面壁智能获数亿元融资,将用于端侧高效大模型研发与生态建设,巩固其在边缘智能领域的领先地位。作为国内端侧大模型先行者,公司已形成从理论到产品的技术闭环,核心产品MiniCPM“面壁小”系列表现突出。
面壁智能完成数亿元融资,投资方包括京国瑞、国科投资等。资金将重点投入端侧高效大模型的研发,以巩固其在终端智能市场的技术优势。作为国内端侧AI领域的先行者,公司已构建从理论到全场景产品的完整体系。
大模型竞赛进入“落地攻坚”阶段,火山引擎提出AI演进新范式:智能Agent成为AI落地核心载体,多模态能力与高效开发体系是关键。大模型正从问答交互转向深入汽车、制造等复杂场景,实现从“聊天”到“干活”的跨越。
AI驱动的面试平台,助力智能招聘、自动筛选候选人,高效招聘。
智能化的 AI 工作流助手,助您高效完成任务。
全球首个带推理智能与16位HDR输出的AI视频模型,创作高效专业
智能编码助手,提供高效、智能的编程体验。
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
-
Anthropic
$105
$525
200
$7
$35
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$3.9
$15.2
64
$15.8
$12.7
Moonshot
Bytedance
$0.8
$0.15
$1.5
32
Xai
$1.4
$10.5
$54
$163
unsloth
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家模型,总参数达2300亿,激活参数为100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
Qwen
Qwen3-VL-2B-Thinking是Qwen系列中最强大的视觉语言模型之一,采用GGUF格式权重,支持在CPU、NVIDIA GPU、Apple Silicon等设备上进行高效推理。该模型具备出色的多模态理解和推理能力,特别增强了视觉感知、空间理解和智能体交互功能。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备出色的文本理解和生成能力、深入的视觉感知和推理能力、长上下文支持、强大的空间和视频动态理解能力,以及智能体交互能力。本仓库提供GGUF格式权重,支持在CPU、GPU等设备上高效推理。
redponike
MiniMax-M2是一款专为高效编码和智能体工作流打造的混合专家模型,具备2300亿总参数和100亿激活参数。该模型在编码和智能体任务中表现卓越,同时具有低延迟、低成本和高吞吐量的特点,能有效提升工作效率。
bullerwins
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家(MoE)模型。它拥有2300亿总参数,仅激活100亿参数,在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的'迷你'模型。它是一个紧凑、快速且经济高效的混合专家(MoE)模型,在编码和智能体任务中表现卓越,同时还具备强大的通用智能。
MiniMaxAI
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的'迷你'模型,采用混合专家架构,总参数2300亿,激活参数100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
quwsarohi
NanoAgent是一个紧凑的智能大语言模型,拥有1.35亿参数和8k上下文长度。它专门针对工具调用和指令遵循进行了优化,能够在个人设备上高效运行,支持轻量级推理和ReAct风格的交互。
ibm-granite
Granite-4.0-H-350M-Base是IBM开发的轻量级仅解码器语言模型,专门为资源受限设备设计,支持多语言文本生成和代码补全功能,可在智能手机或物联网设备上高效运行。
QuantTrio
GLM-4.6-AWQ是基于zai-org/GLM-4.6基础模型的量化版本,具备高效的文本生成能力。相比GLM-4.5,该模型在上下文窗口、编码性能、推理能力和智能体功能等方面都有显著提升。
vito95311
这是Qwen3-Omni 31.7B参数模型的专业量化版本,采用先进的INT8+FP16混合精度量化技术,内存使用减少50%以上,支持智能GPU/CPU混合推理,让大型多模态模型能够在消费级硬件上高效运行。
QuantFactory
Instinct是基于Qwen2.5-Coder-7B的代码编辑模型,经过真实世界代码编辑数据集微调,能够智能预测开发者的下一步操作,保持流畅编程状态。该GGUF量化版本由QuantFactory创建,提供高效的本地推理能力。
openai
GPT-OSS系列是OpenAI推出的开放权重模型,专为强大的推理能力、智能体任务和多样化开发者用例设计。该模型能有效解决复杂问题,提供灵活高效的使用体验,支持Apache 2.0开源许可证。
Menlo
Lucy是一款专注于智能网页搜索和轻量级浏览的17亿参数模型,基于Qwen3-1.7B构建,优化后可在移动设备上高效运行。
osunlp
WebDreamer 是一个规划框架,能够为现实世界中的网页智能体任务实现高效且有效的规划。
praneethposina
这是一个由微调后的LLaMA 3.1 8B模型驱动的端到端客户支持聊天机器人解决方案,能为客户支持场景提供高效、智能的交互服务。
基于MCP协议的智能任务管理系统,提供AI代理的高效编程工作流框架,具备任务规划、分解、执行和记忆功能。
Solana-MCP是一个基于Solana区块链的全链操作平台,通过自然语言命令简化用户与Solana生态的交互,支持DApp集成、数字资产管理、DeFi操作等功能,利用LLM技术和智能合约实现高效安全的链上操作。
基于MCP协议的引力波信号检测与优化系统,专注于GW150914事件分析,通过AI智能探索参数空间实现高效信号检测
Distri是一个基于Rust的可组合AI代理框架,支持通过MCP协议构建和组合智能代理能力,提供模块化设计和高效性能。
MCP-Filesystem是一个专为智能交互优化的文件系统操作服务器,提供对大文件和复杂文件系统的高效管理,包括智能上下文管理、精确文件操作和高级搜索功能。
基于Model Context Protocol(MCP)的智能任务管理系统,为AI代理提供高效编程工作流框架,具备任务规划、分解、依赖管理、验证和记忆等功能。
基于Cloudflare Workers的智能图标搜索推荐服务,通过多算法语义匹配实现高效图标发现
一个智能高效的Grafana Tempo MCP服务器,具备查询格式自动识别、正确URL编码和人性化响应等功能,解决了官方版本的多个问题。
一个集成Perplexity AI的智能研究助手,提供搜索、文档检索、API发现和代码现代化检查功能,支持上下文跟踪和高效API管理。
MCP开发框架是一个用于创建与大语言模型交互自定义工具的强大框架,提供文件处理、网页内容获取等功能,支持PDF、Word、Excel等多种格式,具有智能识别、高效处理和内存优化等技术特点。
一个基于MCP SDK和Crawl4AI的生产级潜在客户生成系统,支持多源数据聚合、智能缓存和高效并发处理,实现从发现到丰富的全生命周期管理。
Cocos MCP日志桥是一个连接Cocos Creator编辑器和Cursor AI的日志同步工具,提供实时日志传输、智能过滤和场景管理功能,帮助开发者高效调试。
这是一个为AI智能体设计的Android MCP工具包,提供SVG转VectorDrawable、ADB日志读取、UI自动化及文本长度估算等工具,旨在将Android开发流程与AI代理高效连接。
Code Index MCP是一个基于模型上下文协议(MCP)的代码索引分析服务器,提供代码搜索、文件分析、智能过滤等功能,支持多种编程语言,帮助开发者高效管理代码库。
MCP开发框架是一个用于与大语言模型交互的强大工具集,提供文件处理(PDF/Word/Excel)、网页内容获取等功能,支持Cursor IDE扩展,具有智能文件识别、高效处理和内存优化等技术特点。
WisdomForge是一个基于Qdrant向量数据库的智能知识管理系统,能够高效存储和检索各种经验、见解和最佳实践。
Fluent MCP是一个用于构建具有智能推理能力的模型上下文协议(MCP)服务器的现代框架,支持AI集成、工具分离和复杂推理卸载,采用双层LLM架构实现高效推理。
Hi-AI是基于模型上下文协议(MCP)的AI开发助手,提供36个专业工具,支持自然语言关键词识别、智能内存管理、代码分析、项目规划和任务管理,帮助开发者高效完成复杂开发任务。
Google Workspace MCP服务器是一个通过Model Context Protocol协议连接Google工作套件(Gmail、日历、Drive等)的服务,提供自动化邮件管理、智能日历调度和高效文件管理功能,支持多账户安全认证和开发者自定义集成。
MCP Oracle数据库上下文服务器是一个为大型Oracle数据库提供智能模式缓存的工具,使AI助手能够高效访问包含数千表的数据库结构,支持表模式查询、关系映射等功能,并与GitHub Copilot等AI工具无缝集成。