谷歌Gmail推出AI收件箱功能,利用生成式AI技术提升邮件处理效率。该功能可自动梳理待办事项、总结重要更新,并采用分栏设计,包含“建议待办”和“主题追踪”两大板块,实现邮件内容的智能识别与主动管理。
阿尔特发布“AI+数智创造”产品体系,推出四大AI核心产品,旨在全面赋能汽车正向研发,大幅提升设计效率并降低成本。
宾法尼亚州立大学研究团队利用人工智能大语言模型,开发出新型超表面设计方法,大幅缩短设计时间。超表面可操控光线与电磁波,应用于虚拟现实、全息成像等领域。传统设计需数月甚至数年模拟优化,新方法显著提升效率。
在2026年CES展上,英伟达发布下一代AI平台“鲁宾”,核心为全新超级芯片Vera Rubin。该平台旨在为智能体AI和大规模推理模型提供更强算力,芯片采用创新集成设计,提升高性能计算效率。
低门槛、高可控的 AI 设计解决方案,提升游戏美术创作效率。
高效实用的 AI 设计工具,提升设计效率与降低成本。
专为法国和欧洲企业设计的AI语言模型,可提供业务的主权和效率。
3D 服装仿真建模软件,提升设计效率,降低样衣损耗。
Xai
$1.4
输入tokens/百万
$3.5
输出tokens/百万
2k
上下文长度
Openai
$7.7
$30.8
200
-
Google
$0.7
$2.8
1k
$2.1
$17.5
Alibaba
Bytedance
$0.8
$2
128
Baidu
32
Deepseek
$4
$12
Tencent
$8.75
$70
400
$1
Chatglm
$8
$16
noctrex
Gelato-30B-A3B是针对GUI计算机使用任务进行微调的最先进(SOTA)模型,提供了量化版本以优化部署效率。该模型专门设计用于理解和处理图形用户界面相关的任务。
ibm-granite
Granite 4.0 H-Small (FP8) 是IBM开发的Granite系列语言模型的小型FP8量化版本,专为提供专业、准确和安全的回复而设计。该模型采用FP8精度格式,在保持性能的同时优化了推理效率。
Mungert
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。该模型采用创新的混合Liquid架构,具有乘法门和短卷积,支持多语言处理。
LiquidAI
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,特别适合在资源受限的环境中运行。
merve
Isaac 0.1是感知器公司推出的首个感知语言模型,拥有20亿参数,专为现实世界应用设计。该模型在效率方面树立了新标准,性能达到甚至超越了比它大50倍以上的模型,具备强大的视觉理解和空间推理能力。
RedHatAI
这是一个基于EAGLE-3推测解码算法的推测器模型,专门设计用于与Qwen/Qwen3-32B模型配合使用,通过推测解码技术提升文本生成效率,在数学推理和通用问答方面有良好表现。
PerceptronAI
Isaac-0.1是感知公司推出的首个开源视觉语言模型,拥有20亿参数,专为现实世界应用设计。该模型在多模态理解和空间推理方面表现出色,性能达到甚至超越比它大50倍以上的模型,树立了新的效率标准。
2imi9
GPT-OSS-20B-NVFP4 是 OpenAI GPT-OSS-20B 模型的量化版本,采用 NVIDIA 先进的 NVFP4 量化格式。该模型在保持显著内存效率提升的同时,相比 MXFP4 量化能提供更出色的准确率保留率,专为高性能推理场景设计。
Jackmin108
GLM-4.5-Air是智谱AI推出的适用于智能体的基础模型,采用紧凑设计,统一了推理、编码和智能体能力,能满足智能体应用的复杂需求。该模型参数量适中且效率优越,已开源多种版本,可用于商业和二次开发。
AesSedai
这是zai-org/GLM-4.5模型的ik_llama.cpp imatrix量化版本,采用先进的量化技术减少模型存储空间的同时保持较高的预测精度,专为特定场景下的性能和效率优化而设计。
cpatonn
GLM-4.5-AWQ是基于GLM-4.5基础模型的4位量化版本,采用先进的AWQ量化方法,在保持较好性能的同时显著提升推理效率。该模型专为智能代理设计,统一了推理、编码和智能代理能力。
GLM-4.5-Air-AWQ是GLM-4.5-Air模型的量化版本,通过AWQ量化技术提升推理效率,同时保持较高性能。该模型拥有106亿参数,其中12亿为活跃参数,专为智能代理设计,支持复杂推理和即时响应两种模式。
NoemaResearch
Nous-V1 8B是由Apexion AI开发的80亿参数语言模型,基于Qwen3-8B架构构建。该模型专为处理各种自然语言处理任务而设计,在对话式AI、知识推理、代码生成和内容创作等方面表现出色,在模型能力和实际部署效率之间取得了良好平衡。
这是一个基于EAGLE-3推测解码算法的文本生成模型,专为与meta-llama/Llama-3.1-8B-Instruct配合使用而设计。通过推测解码技术提升文本生成效率,支持多种语言。
专为Qwen/Qwen3-8B设计的推测解码模型,采用EAGLE-3算法提升文本生成效率和质量,通过多个优质数据集训练获得优秀的泛化能力
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
unsloth
LFM2 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2-350M是由Liquid AI开发的第二代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,具有3.5亿参数,支持多种语言,适用于边缘计算场景。
MCP Probe Kit 是一个强大的开发工具集,提供23个实用工具,覆盖代码质量检测、开发效率提升和项目管理全流程,专为Cursor AI设计,帮助开发者提高开发效率和质量
这是一个专为Local by Flywheel设计的MCP服务器,让AI助手能够直接读取WordPress数据库,自动检测MySQL实例并执行只读查询,极大提升开发效率。
Chatty MCP是一款为编辑器设计的语音交互插件,能在完成AI请求后通过语音总结操作内容,提升多任务处理效率,支持自定义语音引擎。
MCP代码索引器是一个专为AI大语言模型设计的智能代码检索工具,通过语义理解和向量化索引提升代码处理效率和准确性,支持代码分析、质量评估和依赖管理等功能。
GarenCode Design是一个AI驱动的智能组件设计平台,通过MCP框架实现从需求分析到代码生成的全流程自动化,支持多种AI模型和私有组件库,显著提升前端开发效率。
Laravel开发辅助工具包,专为Cursor IDE设计,提升开发效率
RevitMCP项目为Revit引入自然语言交互能力,通过MCP协议实现BIM建模自动化,采用分层架构设计,支持多轮对话与参数补全,显著提升建模效率。
一个高效的任务管理器,支持多种文件格式(Markdown、JSON、YAML),提供强大的搜索、过滤和组织功能,专为最小化工具混淆和最大化LLM预算效率而设计。
一个为AI助手设计的MCP服务器工具,支持文件读写、删除、重命名等操作,优化开发流程,提升编码效率。