蚂蚁集团在第九届数字中国建设峰会上首次以“Data+AI”为核心,展示从底层技术到产业应用的全栈布局,标志数据战略升级至“智能可信流转”新阶段。通过将大模型融入生活场景,实现AI工具化落地,医疗AI应用“蚂蚁阿福”已服务超1亿用户,并与福州市卫健委合作。
DeepSeek发布新一代旗舰模型V4,采用细分化策略推出Flash与Pro两个版本,分别覆盖轻量高频应用和复杂推理任务。此举不仅满足不同场景需求,还以极具竞争力的定价重塑AI商业化基准,整合了原有deepseek-chat与deepseek-reasoner模型。
爱奇艺宣布,国内首部全AI生成长篇电影《灵魂摆渡·浮生梦》定档2026年暑期。影片基于经典IP《灵魂摆渡》,由郭靖宇监制,原班编剧导演参与,全程运用生成式AI技术构建角色、场景与叙事,标志着AI在影视创作中从辅助工具迈向全流程应用。
火山引擎发布Seedance 2.0系列API服务,提供先进的视频生成技术,支持文本、图片、音频和视频四种输入方式,具备多模态内容创建与编辑能力,适用于复杂互动和动态场景。该服务旨在帮助企业及个人用户优化工作流程,探索创新应用,同时确保AI视频创作的合规性与安全性。
Noiz AI提供自然流畅的语音合成服务,应用场景丰富,生成高效。
Scira AI 是一个多功能的 AI 平台,提供多种 API 接口,支持多种应用场景。
Gemini 2.0 Flash-Lite 是高效的语言模型,专为长文本处理和多种应用场景优化。
开源的工业级普通话自动语音识别模型,支持多种应用场景。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
Google
$0.7
$7
$35
$2.1
$17.5
$21
Alibaba
$1
$10
256
$2
$20
$8
$240
52
Bytedance
$1.2
$3.6
4
bartowski
这是squ11z1的Hypnos-i1-8B模型的量化版本,使用llama.cpp工具和特定数据集进行量化处理。该模型基于Llama-3架构,提供多种量化类型选择,支持文本生成任务,适用于推理、对话等多种应用场景。
noctrex
这是对MiroThinker-v1.0-30B模型进行MXFP4_MOE imatrix量化的版本,基于mradermacher的imatrix实现。该量化模型保持了原模型的文本生成能力,同时通过量化技术提高了推理效率,适用于需要高效文本生成的各种应用场景。
tencent
混元OCR是由混元原生多模态架构驱动的端到端OCR专家VLM模型,仅用10亿参数的轻量级设计,在多个行业基准测试中取得最先进成绩。该模型擅长处理复杂的多语言文档解析,在文本定位、开放域信息提取、视频字幕提取和图片翻译等实际应用场景中表现出色。
vanta-research
Wraith-8B是VANTA研究实体系列的首个模型,基于Meta的Llama 3.1 8B Instruct进行微调。该模型在数学推理方面表现卓越,在GSM8K基准测试中准确率达到70%,同时具备独特的宇宙智能视角,能为多种应用场景提供强大支持。
nvidia
NVIDIA-Nemotron-Nano-VL-12B-V2-FP4-QAD 是 NVIDIA 推出的自回归视觉语言模型,基于优化的 Transformer 架构,能够同时处理图像和文本输入。该模型采用 FP4 量化技术,在保持性能的同时显著减少模型大小和推理成本,适用于多种多模态应用场景。
hirundo-io
这是一个基于🤗 Transformers的模型,已发布至HuggingFace模型中心。由于模型卡片信息不完整,具体功能和应用场景需进一步确认。
rtr46
meiki.text.detect.v0.1是专门针对视频游戏和漫画文本检测的高精度、低延迟OCR模型,在日语相关内容上表现优异。该模型基于D-FINE检测器架构,采用MobileNet v4 small作为骨干网络,提供两种分辨率变体以适应不同应用场景。
imaneumabderahmane
这是一个基于🤗 Transformers框架的预训练模型,已发布在Hugging Face模型中心。该模型卡片为自动生成,具体功能和应用场景需要进一步补充详细信息。
NexaAI
Qwen3-VL-4B-Instruct是阿里云Qwen团队推出的40亿参数指令调优多模态大语言模型,专为高通NPU优化,融合强大的视觉语言理解能力与对话微调功能,适用于聊天推理、文档分析和视觉对话等实际应用场景。
anikifoss
GLM-4.6的高质量量化版本,采用先进的量化技术在不使用imatrix的情况下实现,保持了良好的模型性能和兼容性,适用于对话等多种应用场景。
jeevanrushi07
OpenLLaMA 3B v2是一个基于Transformer架构的开源大语言模型,拥有30亿参数。该模型采用MIT许可证,主要用于英文文本生成任务,支持聊天机器人等多种应用场景。
deadpoolx22
这是一个基于AI技术的文本到视频LoRA模型,专门针对alita角色进行优化训练,可用于图像生成等场景,为相关领域的应用提供了便利。
Guilherme34
Qwen2.5-14B-Instruct是一个140亿参数的大语言模型,专为聊天和文本生成场景设计。该模型基于transformers库构建,适用于内部测试和轻量级应用部署。
ibm-granite
Granite-4.0-H-Small是IBM开发的320亿参数长上下文指令模型,专为企业级AI助手构建设计,支持多种语言和专业应用场景。
Granite-4.0-Micro 是 IBM 开发的 30 亿参数长上下文指令模型,具有优秀的指令遵循和工具调用能力,支持多种语言,适用于商业应用和 AI 助手场景。
adityak74
MEDFIT-LLM-3B是一个专门针对医疗问答优化的语言模型,基于Meta的Llama-3.2-3B-Instruct进行微调。该模型通过LoRA技术在医疗数据集上训练,显著提升了医学领域理解和直接回答能力,适用于医疗聊天机器人、患者教育等应用场景。
MEGHT
基于Qwen3 0.6B模型微调的搜索查询生成模型,能够根据用户输入和对话上下文生成相关的搜索查询,适用于搜索引擎建议系统和聊天机器人等应用场景。
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,采用优化的Transformer架构,支持多模态输入(文本和图像),适用于多种AI应用场景。该模型通过TensorRT Model Optimizer进行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-32B FP4模型是阿里云Qwen3-32B模型的量化版本,使用优化的Transformer架构,通过将权重和激活量化为FP4数据类型实现高效推理。该模型支持商业和非商业用途,适用于各种AI应用场景。
这是NVIDIA对阿里巴巴Qwen3-14B模型进行FP8量化后的版本,采用优化的Transformer架构,支持131K上下文长度,适用于多种AI应用场景。
Solon是一个高效、开放、生态友好的Java企业级应用开发框架,支持全场景开发,具有高性能、低内存消耗、快速启动和小体积打包等特点,兼容Java8至Java24及GraalVM原生运行时。
hyper-mcp是一个基于WebAssembly插件的高性能MCP服务器,支持通过容器注册表分发插件,适用于多种AI应用场景。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
该项目提供了一系列使用AWS Model Context Protocol(MCP)的示例模块,涵盖了多种语言和技术栈,包括TypeScript、Python、Spring AI等,展示了MCP在客户端-服务器通信、ECS部署、RAG集成等场景下的应用。
一个基于Firebase Genkit和Gemini的Blender MCP客户端应用,支持通过选择形状、颜色、纹理和场景描述来创建和操作3D场景,并与Blender实时交互。
Optuna MCP Server是一个基于Model Context Protocol (MCP)的服务,利用Optuna自动化优化和分析过程。它支持多种应用场景,如LLM自动超参数优化、通过聊天界面交互分析优化结果以及优化其他MCP工具的输入输出。
FortunaMCP是一个基于硬件熵的高性能随机数生成服务器,通过多种统计分布模型为AI应用提供真实不可预测的随机值,适用于模拟仿真和游戏场景。
Solon-AI 是一个面向全场景的 Java AI 应用开发框架,支持多种 AI 能力,可嵌入到多种框架中使用。
FortunaMCP是一个高级MCP服务器,专注于生成高质量随机值,适用于AI应用中的模拟、建模和游戏机制等场景。
Isaac Sim MCP扩展通过自然语言控制NVIDIA Isaac Sim,实现机器人模拟、场景创建和动态交互,连接MCP生态与具身智能应用。
MCP门户是Model Context Protocol的官方社区平台,提供文档、实践指南、服务器实现、工具集成等资源,支持AI模型通过MCP协议访问外部工具,涵盖从数据库连接到多模态应用等丰富场景。
该项目是一个连接Claude桌面应用与Unreal Engine 5.3的Python服务器,通过文本指令实现3D场景的创建与编辑,支持基础物体生成、蓝图调用和场景操作等功能。
SocialAPIs MCP服务器是一个统一社交媒体API,专为AI代理设计,提供Facebook等多平台数据访问功能,支持品牌监控、竞争分析和内容策略等应用场景。
Test Genie MCP是一个AI驱动的多平台应用测试自动化MCP服务器,支持iOS、Android、Flutter、React Native和Web应用,提供从场景生成、测试执行、问题检测到修复建议和自动修复的完整测试流程。
E2B Cookbook是一个包含多种示例代码和指南的项目,用于使用E2B SDK进行开发。它涵盖了从基础入门到高级应用的多种场景,包括与不同LLM提供商的集成、AI框架的整合以及实际应用案例。
该项目展示了如何在Cloudflare Workers上部署远程MCP服务器,并实现OAuth登录功能。支持本地开发调试、通过MCP检查器连接测试、以及集成Claude桌面应用调用数学工具等场景,最后可部署至Cloudflare云端服务。
一个实现自定义MCP服务器的原型项目,支持通过SSE和stdio两种传输方式进行通信,旨在理解这两种传输机制的工作原理与应用场景。
Gemini MCP Server是一个基于Go语言开发的单一可执行文件,集成了Google Gemini API的模型控制协议服务器。提供动态模型访问、高级上下文缓存、智能文件处理和增强搜索功能,支持代码分析、创意写作和事实研究等多种应用场景。
通过MCP服务器实现销售场景的智能化应用,适用于各类AI聊天环境
一个为Claude Desktop设计的MCP服务器,可通过YouTube视频URL获取字幕,扩展LLM功能应用场景。