bartowski
這是allenai的Olmo-3-32B-Think模型的GGUF量化版本,通過llama.cpp工具進行多種量化處理,旨在提升模型在特定環境下的性能和效率。提供了從Q2到Q8的多種量化選項,滿足不同硬件配置和性能需求。
mlx-community
本模型是基於allenai/Olmo-3-7B-Instruct轉換的8位量化版本,專門為Apple MLX框架優化。它是一個70億參數的大型語言模型,支持指令跟隨和對話任務。
allenai
Olmo 3是由Allen Institute for AI開發的新一代語言模型家族,包含7B和32B的指令和思維變體。該模型在長鏈式思維方面表現出色,能顯著提升數學和編碼等推理任務的性能。所有代碼、檢查點和訓練細節都將公開,推動語言模型科學發展。
Olmo 3是由Allen Institute for AI開發的新一代語言模型系列,包含7B和32B兩種規模,有指令和思考兩種變體。該模型基於Dolma 3數據集進行預訓練,在Dolci數據集上進行後訓練,具備長鏈式思維能力,在數學和編碼等推理任務上表現優異。
Olmo 3是由Allen Institute for AI開發的一系列語言模型,包含7B和32B兩種規模,具有指令式和思考式兩種變體。該模型在長鏈式思維方面表現出色,能有效提升數學和編碼等推理任務的性能。採用多階段訓練方式,包括有監督微調、直接偏好優化和可驗證獎勵的強化學習。
Olmo-3-7B-Think-DPO是Allen Institute for AI開發的7B參數語言模型,具有長鏈式思考能力,在數學和編碼等推理任務中表現出色。該模型經過監督微調、直接偏好優化和基於可驗證獎勵的強化學習等多階段訓練,專為研究和教育用途設計。
Olmo 3是由Allen Institute for AI (Ai2)開發的一系列語言模型,包含7B和32B兩種規格,有Instruct和Think兩種變體。該模型基於Transformer架構,具有長鏈思維能力,可有效提升數學和編碼等推理任務的表現。
Olmo 3是由Allen Institute for AI開發的開源語言模型系列,包含7B和32B兩種規格,分為指令(Instruct)和思考(Think)兩種變體。該模型具有出色的長鏈思維能力,能夠顯著提升數學和編碼等推理任務的表現。
Olmo 3是由Allen Institute for AI開發的全新語言模型家族,包含7B和32B兩種規模,有指令(Instruct)和思維(Think)兩種變體。該模型採用長鏈式思維提升數學和編碼等推理任務表現,旨在推動語言模型科學發展。
Olmo 3 7B RL-Zero Math是Allen AI開發的專為數學推理任務優化的70億參數語言模型,採用RL-Zero強化學習方法在數學數據集上進行訓練,能有效提升數學推理能力。
Olmo 3 7B RL-Zero Mix是Allen AI開發的7B參數規模的語言模型,屬於Olmo 3系列。該模型在Dolma 3數據集上進行預訓練,在Dolci數據集上進行後訓練,並通過強化學習優化數學、編碼和推理能力。
Olmo-3-32B-Think-DPO是Allen AI開發的32B參數語言模型,採用直接偏好優化(DPO)訓練,具備長鏈式思維推理能力,在數學、編碼等複雜推理任務上表現優異。
Olmo 3 32B Think SFT是基於Transformer架構的自迴歸語言模型,在長鏈思維推理方面表現出色,特別擅長處理數學和編碼等複雜推理任務。該模型在Dolma 3數據集上進行預訓練,並在Dolci數據集上進行監督微調。
Olmo 3是Allen Institute for AI (Ai2)開發的全新32B參數語言模型家族,包含Base、Instruct和Think等變體。該模型基於Dolma 3數據集訓練,支持65,536的長上下文處理,旨在推動語言模型科學發展。模型完全開源,遵循Apache 2.0許可證。
richardyoung
olmOCR-2-7B-1025是由AllenAI開發的高質量OCR視覺語言模型,專門用於處理文檔、圖像中的文字識別任務。本倉庫提供其GGUF量化版本,採用Q8_0量化方式,在減小模型大小的同時保持了出色的準確性。
這是對allenai的olmOCR-2-7B-1025模型進行的量化處理版本,使用llama.cpp工具生成了多種量化級別的模型文件,方便不同硬件條件和需求的用戶使用。該模型支持在LM Studio或基於llama.cpp的項目中運行。
Olmo-3-7B-Think-SFT是Allen Institute for AI開發的7B參數語言模型,具有長鏈式思考能力,在數學和編碼等推理任務中表現優異。該模型基於Dolma 3數據集預訓練,並在Dolci數據集上進行了後續訓練。
olmOCR-2-7B-1025的FP8量化版本,基於Qwen2.5-VL-7B-Instruct微調而來,專門用於處理數學方程、表格等複雜OCR場景的視覺語言模型。
Olmo 3是由Allen Institute for AI開發的全新7B參數語言模型系列,基於Transformer架構,在Dolma 3數據集上訓練,旨在推動語言模型科學發展。模型提供Base、Instruct和Think等多種變體,支持最長65,536的上下文長度。
MolmoAct是由艾倫人工智能研究所開發的開源機器人操作動作推理模型,基於Qwen2.5-7B和SigLip2視覺骨幹網絡構建,專門針對家庭和桌面環境中的單臂Franka機器人操作任務進行優化。