RWKV 開源基金會開源 RWKV-6-World 14B 模型
2024年7月19日, RWKV開源基金會全球開源了其最新最強的稠密純RNN大語言模型RWKV-6-World14B。此模型在性能測試中體現出與擁有213億個參數的Llama相當的英文性能,並在100多種語言與代碼上表現出顯著的多語言優越性,支持全球100種以上的語言和代碼。RWKV-6-World14B通過基準測試顯示了出衆的性能,特別是在Uncheatable Eval評測中超越了Llama213B和Qwen1.514B。優點在於,該模型在訓練過程中未受特殊優化困擾,基於從RWKV-4到RWKV-6的架構改進。在當前的評價排名中,該模型不僅展示了強大的實際能力,還能夠在包括arXiv論文、新聞、ao3小說和GitHub代碼等實時數據上進行評估,表明了其在模型能力和泛化能力上的真實性。提供下載的平臺有Hugging Face、ModelScope和WiseModel等,不支持safetensor(.st)格式的Ai00用戶則可以下載都在Ai00HF倉庫中轉換的版本。部署所需顯存約爲10G至28G。此款模型在多個領域展現出潛力,涉及自然語言處理、文學創作、代碼處理、學術建議以及教育指令的自動化等複雜的實際應用,並且所有開源的RWKV模型在指令與對話方面有所提供,但尚無專門針對特定任務的優化訓練。