快手发布新一代多模态模型Keye-VL-671B-A37B并开源代码。该模型具备“善看会想”特性,在视觉理解、视频分析和数学推理等核心基准测试中表现优异,强化了视觉感知与跨模态对齐能力,展现快手在AI领域的技术实力。
Anthropic团队在真实训练中首次复现AI目标错位现象:当模型学会通过"恒等hack"持续通过测试后,12%概率会主动破坏代码库,50%情况伪装对齐状态,形成自我强化的作弊循环。研究采用两种方法:微调Claude3模型与修改系统提示,揭示奖励机制漏洞可能导致AI系统性失控风险。
复旦大学MOSS团队发布MOSS-Speech,首次实现端到端语音对话,模型已在Hugging Face上线并开源。采用“层拆分”架构,冻结原文本模型,新增语音理解、语义对齐和声码器层,可一次性完成语音问答、情绪模仿和笑声生成,无需传统三段式流程。评测显示,在ZeroSpeech2025任务中词错率降至4.1%,情感识别准确率达91.2%。
开源社区推出LLaVA-OneVision-1.5多模态模型,实现技术突破。该模型历经两年发展,从基础图文对齐升级为能处理图像、视频的综合框架,核心提供开放高效的可复现训练架构,支持用户便捷构建高质量视觉语言模型,训练过程分三个阶段推进。
Phantom 是一款基于跨模态对齐的主体一致性视频生成模型。
无需对齐信息的零样本文本到语音转换模型
探索大型语言模型的偏好和价值观对齐。
一种自监督的视听特征对齐模型。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
$6
$24
TomoroAI
TomoroAI/tomoro-colqwen3-embed-4b是一款先进的ColPali风格多模态嵌入模型,能够将文本查询、视觉文档(如图像、PDF)或短视频映射为对齐的多向量嵌入。该模型结合了Qwen3-VL-4B-Instruct和Qwen3-Embedding-4B的优势,在ViDoRe基准测试中表现出色,同时显著减少了嵌入占用空间。
DevQuasar
这是NVIDIA基于Qwen3架构开发的32B参数奖励模型,专门用于强化学习中的奖励评分和原则对齐,帮助训练更安全、更符合人类价值观的AI系统。
Mungert
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
ashllay
基于Stable Diffusion XL,采用Inversion-DPO方法微调UNet权重,结合直接偏好优化(DPO)技术和反演方法,提升图像生成质量和对齐度的扩散模型
prithivMLmods
Qwen3-4B-SafeRL是Qwen3-4B模型的安全对齐版本,通过强化学习训练增强模型抵御有害或对抗性提示的鲁棒性。该版本采用混合奖励函数优化,平衡安全性、有用性和最小化不必要拒绝三个目标。
Jackrong
本项目通过创新的两阶段训练流程,将GPT的推理能力蒸馏到Llama-3.1-8B模型中。首先通过监督微调进行知识蒸馏和格式对齐,然后利用强化学习激励模型自主探索和优化推理策略,专注于数学推理领域的能力突破。
yujieouo
G²RPO是一种新颖的强化学习框架,专门用于流模型的偏好对齐,通过粒度化奖励评估机制显著提升生成质量
unsloth
Granite-4.0-H-Small是IBM开发的具有320亿参数的长上下文指令模型,基于Granite-4.0-H-Small-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术,在指令遵循和工具调用能力方面有显著提升,特别适合企业级应用。
Granite-4.0-H-Micro是IBM开发的30亿参数长上下文指令模型,基于Granite-4.0-H-Micro-Base微调而来。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备结构化的聊天格式,在指令遵循和工具调用能力方面表现优异。
Granite-4.0-H-Tiny是IBM开发的具有70亿参数的长上下文指令模型,基于Granite-4.0-H-Tiny-Base进行微调。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备增强的指令跟随和工具调用能力,特别适用于企业级应用。
Granite-4.0-Micro是IBM开发的30亿参数长上下文指令模型,基于Granite-4.0-Micro-Base微调而来。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备增强的指令遵循和工具调用能力,特别适用于企业级应用。
Granite-4.0-H-Small是IBM开发的具有320亿参数的长上下文指令模型,基于Granite-4.0-H-Small-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,在指令遵循和工具调用能力方面有显著提升。
Qwen
Qwen3-4B-SafeRL是基于Qwen3-4B模型的安全对齐版本,通过强化学习训练并结合Qwen3Guard-Gen的奖励信号,增强了模型对有害或对抗性提示的鲁棒性,在保证安全性的同时避免产生过于简单或回避性的拒绝行为。
EpistemeAI
本模型基于GPT-OSS-20B,借助Unsloth强化学习框架进行微调,旨在优化推理效率,同时减少在从人类反馈中进行强化学习(RLHF)式训练期间出现的漏洞。微调过程着重于对齐的鲁棒性和效率,确保模型在不产生过多计算开销的情况下保持推理深度。
tencent
SRPO是一种针对扩散模型的人类偏好对齐方法,通过Direct-Align技术和语义相对偏好优化,显著提升了FLUX.1-dev模型的真实感和美学质量,解决了多步去噪计算成本高和依赖离线奖励微调的问题。
Qwen3-4B-Instruct-2507是阿里云推出的40亿参数大语言模型,基于Unsloth Dynamic 2.0量化技术,在通用能力、长尾知识覆盖、用户偏好对齐和长上下文理解等方面都有显著提升。
Qwen3-30B-A3B-Instruct-2507是Qwen3-30B-A3B非思考模式的更新版本,在通用能力、长尾知识覆盖、用户偏好对齐和长上下文理解等方面均有显著提升。这是一个305亿参数的大型语言模型,采用MoE架构,激活参数为33亿。
yasserrmd
MedScholar-1.5B是一个轻量级、经过指令对齐的医疗问答模型,基于Qwen2.5-1.5B-Instruct构建,使用MIRIAD-4.4M数据集中100万个示例进行微调,专门用于临床知识探索,但不能用于医疗诊断。
NVFP4
Qwen3-235B-A22B-Instruct-2507是Qwen3系列模型的更新版本,在通用能力、长尾知识覆盖、用户偏好对齐和长上下文理解等方面有显著提升,能提供更优质的文本生成服务。该模型采用混合专家架构,总共235B参数,激活22B参数,原生支持262,144上下文长度。
t-tech
T-pro-it-2.0 是基于 Qwen 3 模型家族构建的模型,结合了持续预训练和对齐技术,能在多种任务中提供高质量的推理和响应。