【AI日報】推出可靈2.5 Turbo模型,新增“首尾幀”功能,顯著提升AI視頻生成的可控性、穩定性和一致性,爲專業創意內容生產提供更優質解決方案。
微博AI部門推出開源大模型VibeThinker-1.5B,擁有15億參數。該模型基於阿里Qwen2.5-Math-1.5B優化,在數學和代碼任務表現優異。現已在Hugging Face等平臺免費開放,遵循MIT許可證,支持商業使用。
prithivMLmods
VibeThinker-1.5B是微博AI推出的15億參數密集語言模型,基於Qwen2.5-Math-1.5B微調,專門針對數學和算法編碼問題設計。採用'頻譜到信號原理'框架訓練,在多個數學競賽測試中超越規模更大的模型,訓練成本約7800美元,支持最長約40k詞元的輸出。
mlx-community
VibeThinker-1.5B的4位量化版本,基於MLX框架針對蘋果芯片優化,是一個擁有15億參數的密集語言模型,專門用於數學推理和算法編碼問題
MaziyarPanahi
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 進行量化處理。該模型是一個 1.5B 參數的文本生成模型,支持多種量化級別(2位到8位),便於在各種硬件上高效運行。
DevQuasar
這是WeiboAI/VibeThinker-1.5B的量化版本,致力於讓知識為每個人所用。該項目提供了經過優化的模型權重,使模型更易於部署和使用。