蚂蚁数科与同方全球人寿合作,以AI技术为核心深化保险全业务领域合作,旨在通过科技赋能重塑业务流程,提升运营效率与风控水平。AI技术已成为保险业高质量发展的重要引擎,头部险企纷纷将其列为战略重点。
国产AI芯片与大模型协同优化取得重要进展。摩尔线程与硅基流动基于国产GPU MTT S5000,成功完成对千亿参数大模型DeepSeek V3 671B的深度适配。通过应用FP8低精度推理技术,实现单卡预填充吞吐量超4000 tokens/秒,解码吞吐量超1000 tokens/秒,推理速度已接近国际主流高端AI加速器水平。
Medeo AI推出全新视频代理版本,以智能代理架构为核心,通过自然语言交互实现视频动态编辑与高效迭代,显著降低创作门槛,引发海外市场关注。
维基百科母公司Wikimedia基金会与亚马逊、Meta及Perplexity达成战略合作,通过付费接口提供高质量数据,用于训练大型语言模型,确保数据真实性,替代传统网络爬虫模式。
通过一个API接入40+ AI模型,节省20 - 70%成本,99.9% 高可用
Marble可让用户通过简单提示创建、编辑和分享高保真3D世界。
通过文本提示生成高质量图像和视频的AI工具。
利用我们的卡通人物制作器创建有趣且个性化的卡通形象,上传您的照片,即可在几秒钟内获得高质量、逼真的卡通形象!
Google
$0.49
Input tokens/M
$2.1
Output tokens/M
1k
Context Length
Openai
$7.7
$30.8
200
$0.7
$2.8
$17.5
Anthropic
$21
$105
Bytedance
$1.2
$3.6
4
Alibaba
$2
-
256
$0.8
128
Deepseek
$4
$12
Tencent
$0.35
400
Iflytek
$1.95
16
$1.6
$10
8
$8.75
$70
Baidu
32
131
prithivMLmods
CodeV是基于Qwen2.5-VL-7B-Instruct微调得到的70亿参数视觉语言模型,通过监督微调(SFT)和基于工具感知策略优化(TAPO)的强化学习(RL)两阶段训练,旨在实现可靠、可解释的视觉推理。它将视觉工具表示为可执行的Python代码,并通过奖励机制确保工具使用与问题证据一致,解决了高准确率下工具调用不相关的问题。
bartowski
这是对TheDrummer的Magidonia-24B-v4.3大语言模型进行量化处理后的版本。通过使用llama.cpp的imatrix量化技术,生成了从BF16到IQ2_XS等多种精度的GGUF格式文件,旨在不同硬件条件下(尤其是资源受限环境)更高效地运行模型,同时尽可能保持模型性能。
open-thoughts
OpenThinker-Agent-v1 是一个基于 Qwen3-8B 进行后续训练的开源智能体模型,专为终端操作和软件工程任务而设计。它首先在高质量监督微调数据集上进行训练,然后通过强化学习进一步优化,在 Terminal-Bench 2.0 和 SWE-Bench 等智能体基准测试中表现出色。
TeichAI
本模型是基于Qwen3-4B-Thinking-2507基础模型,使用高推理难度的Gemini 3 Pro预览数据集进行蒸馏训练得到的模型。它专注于提升在编码和科学领域的复杂推理能力,通过特定数据集的训练,旨在将大型模型(如Gemini 3 Pro)的推理能力高效地迁移到较小规模的模型中。
MCG-NJU
SteadyDancer是一个基于图像到视频范式的强大动画框架,专门用于生成高保真且时间连贯的人体动画。该框架通过稳健的首帧保留机制,有效解决了传统方法中的身份漂移问题,在视觉质量和可控性上表现出色,同时显著减少了训练资源需求。
kyr0
这是一个专为苹果硅芯片设备优化的自动语音识别模型,通过转换为MLX框架并量化为FP8格式,实现在苹果设备上的快速端上语音转录。该模型针对逐字精度进行微调,特别适用于需要高精度转录的场景。
noctrex
这是对MiroThinker-v1.0-30B模型进行MXFP4_MOE imatrix量化的版本,基于mradermacher的imatrix实现。该量化模型保持了原模型的文本生成能力,同时通过量化技术提高了推理效率,适用于需要高效文本生成的各种应用场景。
OpenMMReasoner
OpenMMReasoner是一个完全透明的两阶段多模态推理方案,涵盖有监督微调(SFT)和强化学习(RL)。该方案通过精心构建高质量数据集,在多个多模态推理基准测试中超越了强大的基线模型,为未来大规模多模态推理研究奠定了坚实的实证基础。
onnx-community
SAM3是基于概念的任意分割模型,能够根据输入的点、框等提示信息生成精确的图像分割掩码。该版本是ONNX格式的SAM3跟踪器模型,通过Transformers.js库可在浏览器环境中高效运行。
这是MiniMax-M2-REAP-172B-A10B模型的MXFP4_MOE量化版本,是一个内存高效的压缩模型。通过REAP(路由加权专家激活剪枝)方法,在保持性能的同时将模型从230B参数压缩到172B参数,体积缩小25%,适用于资源受限的环境、本地部署和学术研究。
hum-ma
Wan2.2-TI2V-5B-Turbo-GGUF是基于quanhaol/Wan2.2-TI2V-5B-Turbo基础模型转换而来的图像转视频模型,经过优化可在4GB GPU上运行,具有出色的通用性和高效推理能力。
magiccodingman
这是一个基于Qwen3 4B模型的混合量化版本,采用MXFP4_MOE混合权重技术,在保持近乎无损精度的同时实现了更小的文件大小和更高的推理速度。该模型通过精心组合MXFP4和高精度嵌入/输出权重,达到了接近Q8量化的精度水平,同时具备Q4-Q6级别的吞吐量。
McG-221
本模型是Falcon-H1-34B-Instruct指令微调版本的MLX格式转换版,专为Apple Silicon(M系列芯片)优化。它基于原始的Falcon-H1-34B-Instruct模型,通过mlx-lm工具转换为MLX框架兼容的8位量化格式,旨在在macOS设备上实现高效的本地推理。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基于百度ERNIE-4.5架构的多模态大语言模型,通过AWQ量化技术实现8位精度,在保持高性能的同时大幅降低内存需求。该模型在视觉推理、STEM问题解决、图像分析等方面表现出色,具备强大的多模态理解和推理能力。
kirankumarpetlu
这是一个基于Google Gemma-2B-IT基础模型,使用PEFT(参数高效微调)和LoRA技术进行优化的文本生成模型。该模型通过参数高效的方法在保持基础模型能力的同时,针对特定任务进行了优化。
这是一个基于Qwen3-VL-30B的量化版本模型,专门用于图像文本到文本的转换任务。该模型通过量化技术优化了原始模型,提供了更高效的推理解决方案。
unsloth
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家模型,总参数达2300亿,激活参数为100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
mlx-community
这是一个基于 Kimi-Linear-48B-A3B-Instruct 模型转换的 6 位量化版本,专为 Apple MLX 框架优化。该模型保留了原模型强大的指令跟随能力,同时通过量化技术显著降低了存储和计算需求,适合在 Apple 硬件上高效运行。
SadraCoding
SDXL-Deepfake-Detector 是一款精准检测 AI 生成人脸的工具,专注于维护数字世界的真实性,为抵御视觉虚假信息提供隐私保护且开源的解决方案。该模型通过微调预训练模型实现轻量级且高准确率的检测。
Qwen
Qwen3-VL是通义系列最强大的视觉语言模型,采用混合专家模型架构(MoE),提供GGUF格式权重,支持在CPU、GPU等设备上进行高效推理。模型在文本理解、视觉感知、空间理解、视频处理等方面全面升级。
Eino是一个专为Golang设计的LLM应用开发框架,旨在通过简洁、可扩展、可靠且高效的组件抽象和编排能力,简化AI应用开发流程。它提供丰富的组件库、强大的图形编排功能、完整的流处理支持以及高度可扩展的切面机制,覆盖从开发到部署的全周期工具链。
Claude Context是一个MCP插件,通过语义代码搜索为AI编程助手提供整个代码库的深度上下文,支持多种嵌入模型和向量数据库,实现高效代码检索。
hyper-mcp是一个基于WebAssembly插件的高性能MCP服务器,支持通过容器注册表分发插件,适用于多种AI应用场景。
一个用于通过SQL查询苹果健康数据的MCP服务器,基于DuckDB实现高效分析,支持自然语言查询和自动报告生成。
一个基于Python的MCP服务器,通过Notion API提供高级待办事项管理和内容组织功能,实现AI模型与Notion的无缝集成。
Google Workspace MCP服务器是一个功能全面的多客户端协议服务器,通过自然语言控制Google日历、云端硬盘、Gmail、文档等全套办公套件,支持一键安装到Claude桌面端,提供高级OAuth认证和服务缓存。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
GPT Researcher MCP Server是一个基于MCP协议的AI研究服务器,能够通过深度网络搜索和验证,为LLM应用提供高质量、优化的研究结果。
基于多智能体系统(MAS)的高级顺序思维处理工具,通过协调多个专业代理进行深度分析和问题分解
Solana-MCP是一个基于Solana区块链的全链操作平台,通过自然语言命令简化用户与Solana生态的交互,支持DApp集成、数字资产管理、DeFi操作等功能,利用LLM技术和智能合约实现高效安全的链上操作。
一个高性能的SQLite MCP服务器,采用创新的Codemode代码生成方法,使LLM通过生成Go代码执行数据库操作,相比传统工具调用显著提升效率和降低延迟。
sqlew是一个MCP服务器,为AI代理提供跨会话的共享SQL上下文存储库,通过记录决策原因和约束规则来防止上下文丢失和重复工作,实现高效的团队知识管理和代码一致性。
Needle MCP服务器是一个文档管理和搜索工具,通过与Claude桌面应用集成,利用Needle生态系统实现高效的文档组织和检索。
Vaali MCP服务器是一个展示高级AI代理能力的开源项目,通过交互式参数收集和工作流自动化,实现了官方MCP询问和智能参数引导两种模式,支持云端部署和本地集成。
pickapicon-mcp是一个为前端/UI/设计师提供的工具,通过Iconify API快速获取SVG图标,简化工作流程,与LLMs结合使用更高效。
一个基于AWS SES的MCP服务器,用于通过Cursor或Claude Desktop直接发送电子邮件,支持文本、HTML格式及高级功能。
Kubernetes MCP是一个基于Go语言实现的模型上下文协议服务器,专为与Kubernetes集群交互设计。它通过MCP协议提供丰富的Kubernetes资源管理功能,支持多种传输方式,并包含集群指标监控、日志分析等高级特性。
一个用Go语言实现的高性能MCP服务器,为AI代理和应用程序提供通过自然语言查询访问Redfish API的能力,实现数据中心基础设施的智能管理和监控。
InsightFlow是一个结合实时数据处理与AI智能分析的先进分析平台,通过Model Context Protocol(MCP)实现高级AI能力,并与Claude AI无缝集成,提供智能数据分析和决策支持。
CICADA是一个为AI代码助手提供结构化代码索引的MCP服务器,通过AST级索引、调用站点跟踪和语义搜索,为Elixir、Python和Erlang代码库提供高效的上下文压缩,减少令牌使用并提高代码理解质量。