湖南广电在第十三届中国网络视听大会上公布,芒果TV有效会员突破7560万。同时,其自研的“芒果大模型”已孵化80余款智能体,应用于30多档节目制作,提升生产效率超30%,AI技术已深度融入内容生产。
阿里巴巴旗下高德具身业务部将发布首款四足机器人,这是高德及阿里集团的首款具身机器人产品,标志着其在具身智能领域的布局加速。自今年1月成立该部门以来,高德已发布自研具身导航基座模型,展现出快速的技术推进。
软银牵头成立日本AI基础模型公司,联合本田、索尼、NEC及三大银行等8家企业,并获政府支持。公司计划招募百名顶尖人才,目标在2030年前开发出参数规模达1万亿的“物理AI”大模型,推动日本自主研发。
MiniMax开源其自我迭代模型M2.7,华为昇腾AI同日宣布完成0Day适配,开发者可在昇腾Atlas系列产品上无缝部署。该模型核心突破在于其智能体能力,通过将早期版本引导为研究型Agent,使模型具备自我进化与迭代循环功能。
展示小型语言模型通过自我演化深度思考掌握数学推理能力的研究成果。
自动化AI网络研究助手,利用本地大型语言模型进行深入研究。
基于DIT模型自注意力能力的单概念迁移研究
研究项目,探索自动语言模型基准测试中的作弊行为。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
Bytedance
$1.2
$3.6
4
$3.9
$15.2
64
microsoft
Fara-7B是微软研究院开发的专为计算机使用场景设计的小型语言模型,仅有70亿参数,在同规模模型中实现卓越性能,能够执行网页自动化、多模态理解等计算机交互任务。
AbstractPhil
这是一个实验性的Stable Diffusion 1.5蒸馏模型,采用v-预测流匹配方法和几何引导的自适应块加权技术。目前处于研究阶段,训练正在进行中,结果尚未验证。
almanach
Gaperon-Young-1125-1B 是一个拥有15亿参数的双语(法语-英语)语言模型,由法国国家信息与自动化研究所(Inria Paris)的ALMAnaCH团队开发。该模型在约3万亿个高质量令牌上训练,特别注重语言质量和通用文本生成能力,而非基准测试优化。
geoffmunn
这是Qwen/Qwen3-14B语言模型的GGUF量化版本,拥有140亿参数,具备深度推理能力、研究级准确性和自主工作流程。经过转换后可用于llama.cpp、LM Studio、OpenWebUI、GPT4All等本地推理框架。
skt
A.X 3.1 Light 是一款专为韩语理解和企业部署优化的轻量级大语言模型(LLM),由SKT完全自主研发。
michaelfeil
Qwen3 Embedding 模型系列是通义家族的最新自研模型,专为文本嵌入和排序任务设计,支持100多种语言,在MTEB多语言排行榜上排名第一。
PaddlePaddle
高精度的布局区域定位模型,基于RT-DETR-H在自建的中英文论文、杂志和研究报告数据集上训练得到。
multimolecule
RNAErnie是一个基于非编码RNA序列进行自监督预训练的模型,采用多阶段掩码语言建模目标,为RNA研究提供强大的特征表示能力。
AnonRes
首个针对3D医学影像数据的自监督学习全面基准研究模型
首个针对3D医学影像数据的自监督学习全面基准研究模型,提供多种预训练检查点
nlpie
PPACE是一款80亿参数的大语言模型,专为生物医学资助项目摘要的自动分类而设计,支持世界卫生组织研究优先级分类。
OctoThinker
OctoThinker是基于Llama-3家族模型构建的强化学习友好型基础语言模型,专注于训练中期激励强化学习扩展研究。该3B参数规模的模型在自然语言处理领域具有重要应用价值,特别适合文本生成任务。
NeuraLakeAi
神经湖iSA-03迷你3B是由神经湖科技研发的先进AI模型,融合了传统大语言模型的直接响应能力与自动多步推理功能,支持256K token的超长上下文处理。
BAAI
北京智源研究院开发的非量化自回归文本生成视频模型,能够根据文本提示生成和编辑视频
TucanoBR
Tucano-2b4-Instruct是基于葡萄牙语原生预训练的解码器Transformer模型,在多种葡萄牙语指令数据集上进行微调,专门用于葡萄牙语文本生成任务,为葡萄牙语自然语言处理研究和应用提供支持。
facebook
LayerSkip Llama3.2 1B是基于Llama3.2 1B模型,采用LayerSkip方法、提前退出损失和层丢弃技术进行持续预训练的优化模型。该模型具备自推测解码能力,能够显著提高推理效率,适用于非商业研究用途。
llm-jp
由日本国立情报学研究所开发的大语言模型,支持日语和英语等多种语言,适用于自然语言处理任务。
openbmb
MiniCPM-重排序器是由面壁智能与清华大学自然语言处理实验室、东北大学信息检索小组联合研发的中英双语文本重排序模型,具备卓越的中英文及跨语言重排序能力。
sarvamai
Shuka v1 是一款原生支持印度语言音频理解的语言模型,结合自主研发的音频编码器和Llama3-8B-Instruct解码器,支持多语言零样本问答任务。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型自动分析查询复杂度并选择最佳模型处理请求,支持搜索、推理和深度研究三种工具。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型提供自动查询复杂度检测和最优模型路由功能,支持搜索、推理和深度研究三种工具。
基于Ollama的深度研究MCP服务,通过本地LLM模型实现自动化网络搜索与知识合成
MCPwner是一个基于模型上下文协议的安全研究自动化服务器,集成了多种安全测试工具(SAST、SCA、秘密扫描等),为LLM驱动的安全分析工作流提供统一接口。
DeepResearch MCP是一个基于模型上下文协议(MCP)的智能研究助手,通过自动网络搜索、内容分析和结构化报告生成,提供全面的研究支持。
一个基于Gemini Flash 2 AI模型的数据分析与研究MCP服务器,提供数据解析、智能分析、报告生成和邮件自动发送功能。
一个基于Gemini Flash 2 AI模型的数据分析与研究MCP服务器,提供数据解析、统计分析、研究报告生成和邮件自动发送功能。
Gemini DeepSearch MCP是一个自动化研究代理,利用Google Gemini模型和Google搜索进行深度多步骤网络研究,生成高质量、带引用的答案。
Propbar MCP服务器提供英国房产研究工具,支持AI助手搜索房产、分析区域安全、查找附近学校、探索人口统计数据以及构建自动估值模型,覆盖超过3000万处英国房产数据。
QuantConnect MCP Server是一个专为量化交易设计的本地化模型上下文协议服务器,提供完整的QuantConnect平台集成,包括研究环境、统计分析、组合优化等功能,支持通过自然语言与AI助手交互进行量化策略开发。
该项目是一个基于Ollama本地大模型的深度研究服务器,通过MCP协议提供自动化研究工具,能够迭代搜索、分析和总结复杂主题。
一个基于Gemini Flash 2 AI模型的数据分析与研究MCP服务器,提供数据解析、AI分析、可视化报告和邮件自动发送功能
SEO工具MCP服务器是一个标准化的接口服务,通过Model Context Protocol协议连接大型语言模型与多种SEO API(如DataForSEO),实现自然语言交互式的SEO数据分析、关键词研究、反向链接检查等功能。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的专用AI模型,自动检测查询复杂度并将请求路由到最合适的模型以获得最佳结果。支持搜索、推理和深度研究三种工具,适用于不同复杂度的查询任务。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的专用AI模型,根据查询复杂度自动选择最佳模型进行回答。支持快速搜索、复杂推理和深度研究三种工具,适用于不同复杂度的查询需求。
该项目是关于自动化医疗编码的研究,提供了在MIMIC-III和MIMIC-IV数据集上训练和评估医疗编码模型的代码,包括多种模型的实现和新数据集的划分。
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供网页抓取、爬取、搜索、内容提取和深度研究等功能,支持JavaScript渲染、URL发现、批量处理和自动重试等特性。