通用汽车宣布明年起在旗下车型集成谷歌Gemini对话AI助手,支持自然语音处理导航、路线规划、消息发送及会议准备等任务,并能联网解答问题。该功能将通过Play Store无线更新推送至兼容车辆,成为通用首批面向消费者的AI服务之一。
亚马逊正为送货司机开发AI智能眼镜,通过解放双手提升配送效率与安全性。该眼镜集成AI传感、计算机视觉和摄像系统,可实时显示道路危险、任务信息及环境数据,支持包裹扫描、路线导航和送达确认等操作,减少司机对手机的依赖。
阿里巴巴升级Qwen Deep Research工具,用户可在网页版Qwen Chat中一键生成带引文的研究报告、交互式网页和多说话者播客,实现从数据分析到多格式内容输出的完整闭环,仅需1-2次点击。
快手StreamLake推出AI编程产品矩阵,包含CodeFlicker工具、KAT-Coder系列模型及快手万擎平台,构建智能开发生态。KAT-Coder模型性能卓越,旗舰版KAT-Coder-Pro V1在权威评测中表现突出,推动AI编程高效普惠发展。
使用 AI 轻松在线设计您的梦想家居。
使用 AI 设计和生成平面图,无需注册。
免费租金滞纳金计算器,含多物业管工具,助房东租客合规操作
AI驱动的候选人筛选软件,自动面试、筛除不合格者并提供报告
xai
$21.6
输入tokens/百万
$108
输出tokens/百万
256k
上下文长度
openai
$144
$576
200k
google
$9
$72
1M
$14.4
$57.6
$7.92
$31.68
deepseek
$3.6
$15.48
128k
400k
$2.16
$18
anthropic
$540
chatglm
$4.03
$7.99
$0.43
$1.01
131.1k
minimax
-
alibaba
$0.72
$432
LiquidAI
LFM2-VL-3B是Liquid AI开发的多模态视觉语言模型,基于LFM2骨干架构构建,具备强大的视觉理解和推理能力,特别在细粒度感知任务上表现出色。该模型能够高效处理文本和图像输入,支持高达512×512分辨率的原生图像处理。
noctrex
本项目是对Qwen3-VL-30B-A3B-Thinking模型进行MXFP4_MOE量化的成果。该模型能实现图像文本到文本的转换,为相关领域的应用提供了新的解决方案。
redis
这是一个基于Cross Encoder的语义重排序模型,专门针对Redis LangCache语义缓存系统进行微调。该模型能够有效计算文本对的相似度得分,适用于句子对分类和语义相似度计算任务。
manasmisra
该模型是基于GLM-4.5-Air使用REAP方法进行25%均匀剪枝后的专家混合模型,已转换为MLX格式的4位量化版本,适用于苹果芯片设备的高效推理。
Daemontatox
Zirel-3是基于GLM-4.5-Air-REAP-82B-A12B的特定微调模型,采用REAP(路由加权专家激活剪枝)技术压缩的820亿参数混合专家模型,在保持高性能的同时显著减少模型体积。
datalab-to
Chandra是一款先进的OCR模型,能够从图像和PDF中高精度提取文本并保留布局信息。它支持Markdown、HTML和JSON格式输出,在手写体识别、表单重构、表格处理等方面表现出色,支持40多种语言。
danielus
该模型是cerebras/Qwen3-Coder-REAP-25B-A3B的GGUF格式转换版本,使用llama.cpp工具进行格式转换和量化处理。原始模型是一个25B参数的大语言模型,专门针对代码生成任务进行优化。
bartowski
这是Cerebras公司Qwen3-Coder-REAP-25B-A3B模型的量化版本,使用llama.cpp的imatrix技术进行量化处理,能够在减少模型存储空间和计算资源需求的同时保持模型性能。
这是inclusionAI的Ling-flash-2.0模型的Llamacpp imatrix量化版本。通过先进的量化技术,在保持模型性能的同时显著减少了内存占用和计算量,提高了运行效率。支持多种量化级别,适用于不同硬件配置。
这是inclusionAI的Ling-mini-2.0模型的量化版本,使用llama.cpp的imatrix技术进行量化处理,提供了从32.54GB的BF16到4.66GB的IQ2_XS等多种量化选项,可在多种硬件环境中高效运行。
Pacific-Prime
INL架构是一种基于积分神经元动力学的生产级神经架构,用迭代动力学取代传统前馈网络层,适用于大语言模型、视觉变换器、多模态模型等多种类型。
cerebras
GLM-4.5-Air-REAP-82B-A12B 是 GLM-4.5-Air 的高效压缩版本,通过 REAP 剪枝技术将参数规模从 106B 压缩到 82B,减少 25% 内存需求,同时保持近乎无损的性能表现。
lefromage
这是一个基于Qwen3-Next-80B-A3B-Instruct模型的Q4_0量化版本,通过特定量化技术显著提升了模型在存储和计算方面的效率,同时保持了良好的性能表现。
onnx-community
nanochat-d32是一个轻量级聊天模型,专门针对ONNX运行时进行了优化,提供了高效的文本生成能力。该模型基于karpathy的nanochat-d32模型转换而来,支持在JavaScript环境中运行。
spooknik
PixelWave是基于Flux.1开发的文本到图像模型,经过Nunchaku量化(SVDQ)优化,为不同GPU配置的用户提供了高效的图像生成解决方案。
这是DeepSeek-MoE-16B-Chat模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化,提供了更高效的推理解决方案。
Qwen
Qwen3-VL是通义系列最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、增强的空间和视频理解能力,以及强大的智能体交互能力。该模型为2B参数的思考版,专门增强推理能力。
Qwen3-VL-2B-Instruct-FP8是Qwen系列中最强大的视觉语言模型的FP8量化版本,采用块大小为128的细粒度fp8量化,性能与原始BF16模型几乎相同。该模型具备卓越的文本理解和生成能力、深入的视觉感知与推理能力、长上下文支持以及增强的空间和视频动态理解能力。
Qwen3-VL是通义系列最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频理解能力等方面全面升级,具备卓越的多模态交互能力。
Qwen3-VL-32B-Instruct-FP8是Qwen系列中最强大的视觉语言模型的FP8量化版本,采用块大小为128的细粒度fp8量化,性能指标与原始BF16模型几乎相同。该模型具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持以及强大的空间和视频动态理解能力。
Klavis AI是一个开源项目,提供在Slack、Discord和Web平台上简单易用的MCP(模型上下文协议)服务,包括报告生成、YouTube工具、文档转换等多种功能,支持非技术用户和开发者使用AI工作流。
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
Sail是一个旨在统一流处理、批处理和计算密集型(AI)工作负载的项目,提供了Spark SQL和Spark DataFrame API的替代方案,支持单机和分布式环境。
Supergateway是一个工具,用于将基于标准输入输出的MCP服务器转换为通过SSE或WebSocket访问的服务,方便远程调试和集成。
Aderyn是一个开源的Solidity智能合约静态分析工具,由Rust编写,帮助开发者和安全研究人员发现Solidity代码中的漏洞。它支持Foundry和Hardhat项目,可生成多种格式报告,并提供VSCode扩展。
Deebo是一个AI调试助手,能够加速代码错误的解决过程,通过自动化调查和多线程工作流提升开发效率。
Awesome-MCP-ZH 是一个专为中文用户打造的 MCP(模型上下文协议)资源合集,包含 MCP 的基础介绍、玩法、客户端、服务器和社区资源,帮助用户快速上手 MCP。
Zen MCP是一个多模型AI协作开发服务器,为Claude和Gemini CLI等AI编码助手提供增强的工作流工具和跨模型上下文管理。它支持多种AI模型的无缝协作,实现代码审查、调试、重构等开发任务,并能保持对话上下文在不同工作流间的延续。
Container Use是一个开源工具,为编码代理提供容器化隔离环境,支持多代理并行开发且互不干扰。
虚幻引擎模型上下文协议(MCP)集成的文档,帮助理解、设置和使用MCP系统。
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
MCP Toolbox for Databases是一个开源数据库MCP服务器,专注于企业级和生产质量,简化工具开发,提供连接池、认证等复杂功能。
该项目为Notion API实现了一个MCP服务器,允许通过模型上下文协议访问和操作Notion内容,支持搜索、评论、添加页面等功能。
Scrapling是一个自适应网页抓取库,能自动学习网站变化并重新定位元素,支持多种抓取方式和AI集成,提供高性能解析和开发者友好体验。
Nx Console是一个为Nx和Lerna monorepo项目提供的可视化界面工具,增强编辑器AI功能,提供项目和工作流管理。
BrowserTools MCP是一个强大的浏览器监控与交互工具,通过Chrome扩展和本地服务器实现AI对浏览器的智能分析与操作。
一个基于Playwright的MCP服务器,为LLM提供浏览器自动化能力
为Nuxt/Vite应用提供MCP服务器支持,帮助模型更好地理解应用结构。
AbletonMCP是一个连接Ableton Live和Claude AI的集成工具,通过Model Context Protocol(MCP)实现双向通信,让AI可以直接控制和操作Ableton Live进行音乐创作和制作。
MCP-Framework是一个基于TypeScript的框架,用于优雅地构建模型上下文协议(MCP)服务器。它提供开箱即用的架构,支持自动目录发现工具、资源和提示,具有多种传输方式和类型安全特性。