硅谷宠物智能公司Traini完成超5000万元融资,资金将用于宠物情感模型研发、产品迭代及海外扩张。投资方包括多家机构及科技界人士。公司专注于利用多模态AI技术分析宠物行为。
OpenAI正与亚马逊洽谈超百亿美元融资,并计划采用亚马逊自研AI芯片Trainium,以多元化算力供应。此举将助力亚马逊打破英伟达垄断,并显著提升其芯片的外部影响力。
在2025年AWS re:Invent大会上,亚马逊云科技发布了新一代AI训练芯片Trainium3。该芯片采用3纳米制程,性能较上一代提升4倍,内存容量也增加4倍,能效提高40%,显著增强了高负载AI训练和推理能力。
腾讯发布Training-Free GRPO技术,通过外部知识库替代参数微调,在模型参数冻结状态下实现性能优化。该方法将经验知识转化为token级先验信息,显著降低训练成本,在DeepSeek-V3.1-Terminus模型上达到与昂贵微调相当的提升效果。
一个关于大型语言模型(LLM)后训练方法的教程、调查和指南资源库。
LLaSA: 扩展基于 LLaMA 的语音合成的训练时间和测试时间计算量
学习在线培训,随时随地学习新知识
Pixta AI | 大规模数据标注和数据采集服务
UCSC-VLAA
VLAA-Thinker是一个创新的视觉语言模型,能够同时处理图像和文本输入,并生成高质量的文本输出。该模型基于论文《SFT or RL? An Early Investigation into Training R1-Like Reasoning Large Vision-Language Models》的研究成果开发,专注于类似R1的推理能力。
SofiaK
基于OpenAI Whisper-base模型在Common Voice 11.0俄语数据集上微调的语音识别模型