【AI日报】推出可灵2.5 Turbo模型,新增“首尾帧”功能,显著提升AI视频生成的可控性、稳定性和一致性,为专业创意内容生产提供更优质解决方案。
微博AI部门推出开源大模型VibeThinker-1.5B,拥有15亿参数。该模型基于阿里Qwen2.5-Math-1.5B优化,在数学和代码任务表现优异。现已在Hugging Face等平台免费开放,遵循MIT许可证,支持商业使用。
prithivMLmods
VibeThinker-1.5B是微博AI推出的15亿参数密集语言模型,基于Qwen2.5-Math-1.5B微调,专门针对数学和算法编码问题设计。采用'频谱到信号原理'框架训练,在多个数学竞赛测试中超越规模更大的模型,训练成本约7800美元,支持最长约40k词元的输出。
mlx-community
VibeThinker-1.5B的4位量化版本,基于MLX框架针对苹果芯片优化,是一个拥有15亿参数的密集语言模型,专门用于数学推理和算法编码问题
MaziyarPanahi
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 进行量化处理。该模型是一个 1.5B 参数的文本生成模型,支持多种量化级别(2位到8位),便于在各种硬件上高效运行。
DevQuasar
这是WeiboAI/VibeThinker-1.5B的量化版本,致力于让知识为每个人所用。该项目提供了经过优化的模型权重,使模型更易于部署和使用。