灵波科技开源具身大模型LingBot-VLA,在真实与仿真场景中均表现优异,尤其在GM-100基准测试中展现强大泛化能力,并开放完整训练代码库以降低研发门槛。
蚂蚁集团旗下蚂蚁灵波科技开源具身智能大模型LingBot-VLA及相关代码,验证了模型在不同机器人间的跨本体迁移能力,已适配星海图、松灵、乐聚等多家厂商。通过其开发的后训练工具链,在8卡GPU配置下可高效部署,推动智能机器人技术发展。
蚂蚁集团旗下灵波科技开源具身大模型LingBot-VLA,作为机器人操作的“智能基座”,具备跨本体和跨任务泛化能力,显著降低后训练成本,推动“一脑多机”工程化落地。在GM-100评测基准中,该模型在三个真实机器人平台上表现优异。
阿里巴巴发布Qwen3-Max-Thinking推理模型,参数量超万亿,在复杂推理、事实知识及智能体能力上实现显著提升。该模型采用大规模强化学习训练,引入自适应工具调用和测试时扩展技术,综合性能已媲美GPT-5.2-Thinking等国际顶尖模型。
Radal是一个无代码平台,可使用您自己的数据微调小型语言模型。连接数据集,通过可视化配置训练,并在几分钟内部署模型。
一个高效的强化学习框架,用于训练推理和搜索引擎调用的语言模型。
一个关于大型语言模型(LLM)后训练方法的教程、调查和指南资源库。
为LLM训练和推理生成网站整合文本文件的工具
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
$6
$24
GuangyuanSD
Z-Image-Re-Turbo 是一个基于文本生成图像的模型,它在 Z-Image-De-Turbo 模型的基础上进行了去还原和重新加速优化。该模型旨在兼顾训练时的便利性与推理时的速度,恢复了接近原始 Turbo 模型的快速生成能力,同时保持了与 Z-Image-De-Turbo 相同的训练友好特性,使其能够完美兼容 Z-Image 生态系统中已训练的大量 LoRA 模型。
PrimeIntellect
INTELLECT-3是一个拥有1060亿参数的混合专家(MoE)模型,通过大规模强化学习训练而成。在数学、编码和推理基准测试中展现出卓越性能,模型、训练框架和环境均以宽松许可协议开源。
TeichAI
本模型是基于Qwen3-4B-Thinking-2507基础模型,使用高推理难度的Gemini 3 Pro预览数据集进行蒸馏训练得到的模型。它专注于提升在编码和科学领域的复杂推理能力,通过特定数据集的训练,旨在将大型模型(如Gemini 3 Pro)的推理能力高效地迁移到较小规模的模型中。
RiosWesley
巴西范围路由模型是一个基于Gemma 3 270M的微调微型大语言模型,专为巴西外卖服务系统设计,可作为极快速且轻量级的意图分类器(路由)。该模型使用Unsloth进行训练并转换为GGUF格式。
sbintuitions
Sarashina2.2-Vision-3B是由SB Intuitions训练的日本大型视觉语言模型,基于Sarashina2.2-3B-Instruct和SigLIP图像编码器构建,具备强大的图像到文本转换能力,支持日语和英语的多模态处理。
noname0202
kotodama-1.5b-a0.3b-sft 是一个基于 noname0202/kotodama-1.5b-a0.3b-pt 进行监督微调的大语言模型。该模型使用 TRL 框架进行训练,专门针对文本生成任务进行了优化,能够有效解决自然语言处理相关问题。
这是一个基于Claude Sonnet 4.5推理数据集训练的30B参数大语言模型,专门针对高难度推理任务进行优化,在编码和科学领域表现出色。
sensenova
SenseNova-SI是基于多模态基础模型构建的空间智能模型系列,专门针对空间理解能力进行优化。通过大规模空间智能数据训练,在度量估计、空间关系理解、视点变化处理等方面表现优异。
BAAI
Emu3.5是北京智源人工智能研究院开发的原生多模态模型,能够跨视觉和语言联合预测下一状态,实现连贯的世界建模和生成。通过端到端预训练和大规模强化学习后训练,在多模态任务中展现出卓越性能。
mradermacher
Lamapi/next-12b 是一个120亿参数的多语言大语言模型,提供了多种量化版本,支持文本生成、问答、聊天等多种自然语言处理任务。该模型在多个领域数据集上训练,具有高效、轻量级的特点。
almanach
Gaperon-1125-24B是一个拥有240亿参数的双语(法语-英语)语言模型,经过约2万亿标记的训练,能够熟练处理法语、英语和编码任务。该模型采用OLMo-2架构,旨在实现大规模、高质量文本生成和出色任务性能之间的最佳平衡。
Nanbeige
Nanbeige4-3B-Thinking是第四代Nanbeige大语言模型家族中的30亿参数推理模型,通过提升数据质量和训练方法实现了先进的推理能力。该模型在数学、科学、创意写作、工具使用等多个领域表现出色,支持多阶段课程学习和强化学习训练。
AvitoTech
A-vibe是由Avito Tech基于Qwen3-8B-Base开发的俄语优化大语言模型,通过分词器优化、模型瘦身和多阶段训练,在俄语基准测试中表现优异,支持函数调用和数学问题解决。
aisingapore
Qwen-SEA-LION-v4-32B-IT是基于Qwen3-32B构建的东南亚语言大语言模型,专门针对东南亚地区进行了预训练和指令微调。该模型在包含7种东南亚语言的SEA-Pile v2语料库上继续预训练,并在800万对高质量问答数据上进行指令微调,具备强大的多语言理解和推理能力。
Mungert
通义深度研究30B是一款具有300亿参数的大语言模型,专为长周期、深度信息搜索任务设计。该模型在多个智能搜索基准测试中表现出色,采用创新的量化方法提升性能,支持智能预训练、监督微调与强化学习。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
birder-project
这是一个基于RoPE(旋转位置编码)的Vision Transformer模型,参数规模为150M,采用14x14的patch大小。该模型在约2100万张图像的多样化数据集上进行了预训练,可作为通用视觉特征提取器使用。
DragonLLM
LLM Pro Finance是一款专为金融和经济专业人士设计的多语言人工智能模型,基于大量高质量的金融和经济数据训练,能够针对复杂的金融问题生成准确且贴合上下文的回应。
Apriel-1.5-15b-Thinker是ServiceNow Apriel SLM系列中的多模态推理模型,具有150亿参数,能够在文本和图像推理任务上与规模大10倍的模型竞争。该模型通过中期训练方案实现了卓越的推理能力,无需图像SFT训练或强化学习即可达到SOTA性能。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化算法和4位量化技术,实现2倍训练速度提升和80%显存节省,支持多种主流模型。