deepcogito
Cogito v2.1是經過指令微調的6710億參數混合專家生成式模型,採用開放許可發佈,支持商業用途。該模型能有效解決複雜的推理和指令遵循問題,支持30多種語言和128k上下文長度。
bartowski
這是deepcogito的cogito-v2-preview-llama-109B-MoE模型的量化版本,使用llama.cpp進行量化處理,提供多種量化類型以適應不同硬件條件。該模型是一個109B參數的混合專家(MoE)大語言模型,經過優化後可在消費級硬件上運行。
這是對deepcogito的cogito-v2-preview-llama-70B模型進行量化處理的版本,使用Llama.cpp的imatrix量化技術,在保持較好性能的同時顯著減少模型存儲和計算資源需求,適用於資源受限的環境。
Cogito v2是經過指令微調的生成式混合推理模型,採用迭代蒸餾與放大訓練方法,在編碼、STEM、指令遵循等方面表現出色,支持超30種語言和128k上下文長度。
Cogito v2是經過指令調優的生成式大語言模型,採用混合專家架構,具有1090億參數。該模型支持多語言處理、長上下文推理,在編碼、STEM等領域表現出色,支持商業用途。
Cogito v2是基於指令調優的生成式大語言模型,具備混合推理能力,支持128k上下文長度和多語言處理。該模型採用迭代蒸餾與放大(IDA)訓練策略,在編碼、STEM、指令遵循等任務上表現優異。
Cogito v2是基於Llama-3.1-70B的指令調優生成式模型,具備混合推理能力,支持多語言和長上下文,在編碼、STEM等領域表現出色。採用迭代蒸餾與放大訓練策略,可用於商業用途。
tensorblock
基於Llama架構的3B參數語言模型,提供多種量化版本以適應不同硬件需求
cortexso
DeepCogito推出的通過迭代蒸餾與放大(IDA)訓練的強大混合推理模型,在編程、STEM、多語言和智能體應用場景中表現卓越。
mlx-community
這是一個基於Llama架構的70B參數大語言模型,經過6位量化處理,適用於文本生成任務。