谷歌在NeurIPS2025发布"嵌套学习"新范式,突破AI"灾难性遗忘"难题。该技术受人类神经可塑性启发,使模型持续学习新任务时几乎不丢失旧知识,遗忘率接近零。这标志着AI从"一次性专家"向"终身学习者"转变的关键进展。
Google在东京举办的Gemma开发者日上发布重磅消息:全新日语版Gemma模型正式亮相。这款小巧精悍的AI模型以仅20亿参数的规模,却能同时驾驭日语和英语,展现出与GPT-3.5相媲美的性能。这一技术突破尤为令人瞩目。在AI领域,小型模型在学习新语言时常常面临"灾难性遗忘"的挑战——即在获取新知识的过程中丢失先前掌握的能力。而日语版Gemma却成功克服了这一难题,实现了双语能力的完美平衡。为推动全球开发者社区的参与,Google不仅通过Kaggle和Hugging Face平台开放了模型权重,还提供了完整的
最近在东京举办的 Gemma 开发者日上,谷歌正式推出了新的日语版本 Gemma AI 模型。这款模型的表现可以与 GPT-3.5媲美,但它的参数量只有仅仅20亿,非常小巧,适合在移动设备上运行。这次发布的 Gemma 模型,在日语处理上表现出色,同时也保持了其在英语上的能力。对于小型模型来说,这一点特别重要,因为在进行新语言的微调时,它们可能会面临 “灾难性遗忘” 的问题,即新学到的知识会覆盖之前学到的信息。但是 Gemma 成功克服了这个难题,展现了强大的语言处理能力。更值得一提的是
["马毅团队提出了 EMT 框架,评估微调后的多模态大模型(MLLM)的灾难性遗忘。","实验表明,微调 MLLM 在提升微调数据集性能的同时,也导致其他数据集性能下降。","微调过程中,MLLM 会产生与微调数据集相关的幻觉文本,忽略原始问题。","研究为后续工作提供了框架和基准,模型设计和训练技巧仍需进一步优化。","马毅团队首次系统评估了 MLLM 中的灾难性遗忘问题,平衡不同能力之间的权衡。"]
DeSTA-ntu
DeSTA2.5-Audio是一个通用的大型音频语言模型,通过自生成的跨模态对齐技术,在无需特定任务指令调优数据的情况下实现高扩展性和效率,同时保留语言能力并避免灾难性遗忘。
dataautogpt3
ProteusV0.3是基于OpenDalleV1.1的重大升级版本,新增了20万张动漫相关图像并精选1.5万张进行优化。该模型在保持提示词理解能力的同时,显著提升了灯光效果和美学表现,支持逼真写实和风格化图像生成,且不会出现灾难性遗忘问题。