VideoPipe是一款开源视频分析框架,专注于计算机视觉AI算法的快速集成与落地。其核心创新在于采用可组合的管线设计,将复杂任务模块化,帮助开发者简化底层编码,聚焦业务逻辑,提升开发效率。
Anthropic正式向付费用户全面开放Claude Chrome扩展插件,无需排队申请。该插件作为“浏览器最强Claude助手”,通过常驻侧边栏设计,支持多标签协作,让用户直接在浏览器内调用Claude完成各类网页任务,显著提升AI与网页交互效率。
Canva在中国推出AI助手Canva AI,通过自然对话简化设计流程,实现“对话启动、边聊边改”。用户只需描述想法,AI即可生成可编辑初稿,提升创作效率。
谷歌云推出由Gemini驱动的AI编码智能体AlphaEvolve,专为设计复杂算法,旨在革新编程领域。该工具已开启私密预览,可帮助开发者节省时间精力,提升算法设计效率。
低门槛、高可控的 AI 设计解决方案,提升游戏美术创作效率。
高效实用的 AI 设计工具,提升设计效率与降低成本。
专为法国和欧洲企业设计的AI语言模型,可提供业务的主权和效率。
3D 服装仿真建模软件,提升设计效率,降低样衣损耗。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Openai
$7.7
$30.8
200
-
Google
$0.7
$2.8
1k
$2.1
$17.5
Alibaba
Bytedance
$0.8
$2
128
Baidu
32
Deepseek
$4
$12
Tencent
$8.75
$70
400
$1
Chatglm
$8
$16
noctrex
Gelato-30B-A3B是针对GUI计算机使用任务进行微调的最先进(SOTA)模型,提供了量化版本以优化部署效率。该模型专门设计用于理解和处理图形用户界面相关的任务。
ibm-granite
Granite 4.0 H-Small (FP8) 是IBM开发的Granite系列语言模型的小型FP8量化版本,专为提供专业、准确和安全的回复而设计。该模型采用FP8精度格式,在保持性能的同时优化了推理效率。
Mungert
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。该模型采用创新的混合Liquid架构,具有乘法门和短卷积,支持多语言处理。
LiquidAI
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,特别适合在资源受限的环境中运行。
merve
Isaac 0.1是感知器公司推出的首个感知语言模型,拥有20亿参数,专为现实世界应用设计。该模型在效率方面树立了新标准,性能达到甚至超越了比它大50倍以上的模型,具备强大的视觉理解和空间推理能力。
RedHatAI
这是一个基于EAGLE-3推测解码算法的推测器模型,专门设计用于与Qwen/Qwen3-32B模型配合使用,通过推测解码技术提升文本生成效率,在数学推理和通用问答方面有良好表现。
PerceptronAI
Isaac-0.1是感知公司推出的首个开源视觉语言模型,拥有20亿参数,专为现实世界应用设计。该模型在多模态理解和空间推理方面表现出色,性能达到甚至超越比它大50倍以上的模型,树立了新的效率标准。
2imi9
GPT-OSS-20B-NVFP4 是 OpenAI GPT-OSS-20B 模型的量化版本,采用 NVIDIA 先进的 NVFP4 量化格式。该模型在保持显著内存效率提升的同时,相比 MXFP4 量化能提供更出色的准确率保留率,专为高性能推理场景设计。
Jackmin108
GLM-4.5-Air是智谱AI推出的适用于智能体的基础模型,采用紧凑设计,统一了推理、编码和智能体能力,能满足智能体应用的复杂需求。该模型参数量适中且效率优越,已开源多种版本,可用于商业和二次开发。
AesSedai
这是zai-org/GLM-4.5模型的ik_llama.cpp imatrix量化版本,采用先进的量化技术减少模型存储空间的同时保持较高的预测精度,专为特定场景下的性能和效率优化而设计。
cpatonn
GLM-4.5-AWQ是基于GLM-4.5基础模型的4位量化版本,采用先进的AWQ量化方法,在保持较好性能的同时显著提升推理效率。该模型专为智能代理设计,统一了推理、编码和智能代理能力。
GLM-4.5-Air-AWQ是GLM-4.5-Air模型的量化版本,通过AWQ量化技术提升推理效率,同时保持较高性能。该模型拥有106亿参数,其中12亿为活跃参数,专为智能代理设计,支持复杂推理和即时响应两种模式。
NoemaResearch
Nous-V1 8B是由Apexion AI开发的80亿参数语言模型,基于Qwen3-8B架构构建。该模型专为处理各种自然语言处理任务而设计,在对话式AI、知识推理、代码生成和内容创作等方面表现出色,在模型能力和实际部署效率之间取得了良好平衡。
这是一个基于EAGLE-3推测解码算法的文本生成模型,专为与meta-llama/Llama-3.1-8B-Instruct配合使用而设计。通过推测解码技术提升文本生成效率,支持多种语言。
专为Qwen/Qwen3-8B设计的推测解码模型,采用EAGLE-3算法提升文本生成效率和质量,通过多个优质数据集训练获得优秀的泛化能力
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
unsloth
LFM2 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2-350M是由Liquid AI开发的第二代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,具有3.5亿参数,支持多种语言,适用于边缘计算场景。
MCP Probe Kit 是一个强大的开发工具集,提供23个实用工具,覆盖代码质量检测、开发效率提升和项目管理全流程,专为Cursor AI设计,帮助开发者提高开发效率和质量
这是一个专为Local by Flywheel设计的MCP服务器,让AI助手能够直接读取WordPress数据库,自动检测MySQL实例并执行只读查询,极大提升开发效率。
Chatty MCP是一款为编辑器设计的语音交互插件,能在完成AI请求后通过语音总结操作内容,提升多任务处理效率,支持自定义语音引擎。
MCP代码索引器是一个专为AI大语言模型设计的智能代码检索工具,通过语义理解和向量化索引提升代码处理效率和准确性,支持代码分析、质量评估和依赖管理等功能。
GarenCode Design是一个AI驱动的智能组件设计平台,通过MCP框架实现从需求分析到代码生成的全流程自动化,支持多种AI模型和私有组件库,显著提升前端开发效率。
Laravel开发辅助工具包,专为Cursor IDE设计,提升开发效率
RevitMCP项目为Revit引入自然语言交互能力,通过MCP协议实现BIM建模自动化,采用分层架构设计,支持多轮对话与参数补全,显著提升建模效率。
一个高效的任务管理器,支持多种文件格式(Markdown、JSON、YAML),提供强大的搜索、过滤和组织功能,专为最小化工具混淆和最大化LLM预算效率而设计。
一个为AI助手设计的MCP服务器工具,支持文件读写、删除、重命名等操作,优化开发流程,提升编码效率。