小红书宣布组织架构升级,整合社区、电商与商业化业务,并设立AI一级部门“Dots”及企业智能部,强化技术投入。“Dots”将覆盖AI模型研发、基础设施、工程落地及产品应用,旨在构建完整技术体系,推动业务协同与创新。
小红书成立两个AI一级部门(Dots和企业智能部),加大人工智能投入,并任命柯南(丁玲)为总裁,负责整合社区、电商和商业化业务。
具身智能领域的神秘模型MotuBrain身份揭晓,该模型由视频大模型Vidu开发商生数科技推出,是其最新商业化成果。MotuBrain在物理世界理解基准WorldArena和动作执行基准RoboTwin2.0中均登顶,刷新了纪录,展示了生数科技在具身智能领域的跨界实力。
京东启动“Aidol创造营”全球招募计划,旨在挖掘优秀AI智能硬件项目,目标年内孵化101个标杆产品。计划提供覆盖全生命周期的五大核心资源,助力项目快速落地并实现商业化突破。
Ahoy是首款AI原生CRM,由智能驱动,即将推出。
人工智能驱动的太空商业游戏,建立你的帝国。
智能品牌监测平台,融合传统社交倾听与前沿AI搜索智能,助力企业发展。
为创始人提供嵌入式AI战略支持,重塑类似Palantir的智能服务。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
-
Anthropic
$105
$525
200
$7
$35
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$3.9
$15.2
64
$15.8
$12.7
Bytedance
$0.8
$0.15
$1.5
32
Xai
$1.4
$10.5
Deepseek
$12
nvidia
NVIDIA Nemotron Nano v2 12B VL是一款强大的多模态视觉语言模型,支持多图像推理和视频理解,具备文档智能、视觉问答和摘要功能,可用于商业用途。
Jackmin108
GLM-4.5-Air是智谱AI推出的适用于智能体的基础模型,采用紧凑设计,统一了推理、编码和智能体能力,能满足智能体应用的复杂需求。该模型参数量适中且效率优越,已开源多种版本,可用于商业和二次开发。
0xShonen
GPT-OSS-20B是OpenAI发布的开放权重模型,专为强大的推理、智能体任务和多样化开发者用例设计。该模型具有21B参数(其中3.6B为活跃参数),支持低延迟推理和本地部署,采用Apache 2.0许可证,可自由用于实验、定制和商业部署。
unsloth
GLM-4.5是为智能代理设计的基础模型,统一了推理、编码和智能代理能力,总参数达3550亿,在12个行业标准基准评估中排名第3,得分63.2。采用MIT开源许可,可用于商业和二次开发。
briaai
基于商业级授权数据集训练的智能图像修复模型,提供法律责任保障
一个基于SQLite的MCP服务器,提供数据库交互和商业智能分析功能
MSSQL MCP Server是一个提供数据库交互和商业智能能力的服务,支持SQL查询执行、业务数据分析及自动生成商业洞察备忘录。
Zaturn是一个AI驱动的数据分析助手,无需编写代码即可通过自然语言查询获取商业洞察和可视化结果。
Fortnox MCP服务器是一个用于集成瑞典会计系统Fortnox的工具,通过MCP协议让LLM能够管理发票、客户、供应商、订单、账户和凭证,并提供商业智能分析。支持远程和本地两种使用模式。
MCP是一个智能对话平台服务器,提供基于角色的AI顾问服务,支持多LLM供应商、语义记忆管理和实时流式响应,适用于商业咨询和技术支持等场景。
一个基于SQLite的MCP服务器,提供数据库交互和商业智能分析功能,支持SQL查询、数据分析和自动生成商业洞察备忘录。
一个基于MySQL的MCP服务器实现,提供数据库交互和商业智能分析功能,支持SQL查询执行、表管理、模式分析和商业洞察生成。
一个基于MySQL的MCP服务器实现,提供数据库交互和商业智能分析功能,支持SQL查询执行、表结构管理、业务洞察生成等功能。
Altibase MCP Server是一个基于Altibase数据库的模型上下文协议服务器,提供数据库交互和商业智能功能,包括SQL查询执行、业务数据分析及自动生成商业洞察备忘录。
Teradata MCP服务器实现,提供数据库交互和商业智能功能,支持SQL查询、数据分析和模式管理。
NiagaBot是基于Qwen3-Omni AI的智能WhatsApp商业自动化机器人,支持多模态消息处理、群组管理、批量广播和数据分析等功能
该项目展示了一个结合模型上下文协议(MCP)和检索增强生成(RAG)的轻量级多智能体AI系统,用于商业分析。系统通过协调多个专用工具服务器,提供自然语言查询的商业数据统计分析和知识检索功能,具有模块化设计便于扩展和LLM后端切换。