马斯克旗下xAI加速算力竞赛,收购第三栋建筑扩充田纳西州基础设施,目标将模型训练算力提升至近20亿瓦。新建筑被命名为“MACROHARDRR”,疑似戏仿微软。
马斯克旗下xAI公司加速扩张,收购孟菲斯第三栋建筑以增强算力。新建筑被命名为“MACROHARDRR”,疑似调侃微软。计划2026年起改造为现代化设施,支持未来AI模型训练。
NVIDIA推出NitroGen通用游戏AI模型,通过4万小时游戏视频学习,覆盖千款游戏,支持画面与手柄操作识别,提供开放数据集和预训练策略。
Meta AI发布Pixio图像模型,通过改进MAE框架,证明简单训练路径在深度估计和3D重建等任务中性能卓越,挑战了MAE逊于DINOv2等复杂算法的传统认知。
Radal是一个无代码平台,可使用您自己的数据微调小型语言模型。连接数据集,通过可视化配置训练,并在几分钟内部署模型。
提供多种预训练模型,支持多维度筛选,助力AI模型应用与开发。
Labelbox提供软件和服务,帮助您构建、运营或配备数据工厂。
一个高效的强化学习框架,用于训练推理和搜索引擎调用的语言模型。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
prithivMLmods
CodeV是基于Qwen2.5-VL-7B-Instruct微调得到的70亿参数视觉语言模型,通过监督微调(SFT)和基于工具感知策略优化(TAPO)的强化学习(RL)两阶段训练,旨在实现可靠、可解释的视觉推理。它将视觉工具表示为可执行的Python代码,并通过奖励机制确保工具使用与问题证据一致,解决了高准确率下工具调用不相关的问题。
GuangyuanSD
Z-Image-Re-Turbo 是一个基于文本生成图像的模型,它在 Z-Image-De-Turbo 模型的基础上进行了去还原和重新加速优化。该模型旨在兼顾训练时的便利性与推理时的速度,恢复了接近原始 Turbo 模型的快速生成能力,同时保持了与 Z-Image-De-Turbo 相同的训练友好特性,使其能够完美兼容 Z-Image 生态系统中已训练的大量 LoRA 模型。
redis
这是一个由Redis微调的交叉编码器模型,专门用于语义缓存场景下的句子对重排序。它基于Alibaba-NLP的gte-reranker-modernbert-base模型,在LangCache句子对数据集上进行训练,能够高效计算两个文本之间的语义相似度得分,用于判断它们是否表达相同或相似的含义。
open-thoughts
OpenThinker-Agent-v1-SFT 是基于 Qwen/Qwen3-8B 进行有监督微调(SFT)得到的智能体模型。它是 OpenThinker-Agent-v1 完整训练流程(SFT + RL)的第一阶段模型,专门针对智能体任务(如终端操作和代码修复)进行优化。
OpenThinker-Agent-v1 是一个基于 Qwen3-8B 进行后续训练的开源智能体模型,专为终端操作和软件工程任务而设计。它首先在高质量监督微调数据集上进行训练,然后通过强化学习进一步优化,在 Terminal-Bench 2.0 和 SWE-Bench 等智能体基准测试中表现出色。
这是一个由Redis开发的、针对LangCache语义缓存任务进行微调的CrossEncoder模型。它基于成熟的`cross-encoder/ms-marco-MiniLM-L6-v2`模型,在超过100万对LangCache句子对数据集上训练,专门用于计算两个文本之间的语义相关性得分,以优化缓存命中率。
ai-sage
GigaChat3-10B-A1.8B 是 GigaChat 系列的高效对话模型,基于混合专家(MoE)架构,拥有 100 亿总参数和 18 亿活跃参数。它采用了创新的多头潜在注意力(MLA)和多令牌预测(MTP)技术,旨在优化推理吞吐量和生成速度。模型在 20T 令牌的多样化数据上训练,支持包括中文在内的 10 种语言,适用于需要快速响应的对话场景。
EssentialAI
Rnj-1-instruct 是由 Essential AI 从头开始训练的 80 亿参数开放权重密集模型,针对代码、STEM 领域、智能体能力和工具调用进行了优化。它在多种编程语言中表现出色,同时在数学和科学领域也展现出强大实力,能力与最先进的开放权重模型相当。
AlekseyCalvin
这是一个针对 Z-Image Turbo DiT 模型的低秩适配器(LoRA),专门用于生成具有历史照片风格的图像。该模型基于 1900-1910 年代摄影师 Sergey Prokudin-Gorsky 的 150 张彩色照片训练而成,能够为现代图像生成注入独特的早期彩色摄影美学,如暖色调光晕和特定色彩质感。
squ11z1
Hypnos-i2-32B是世界首个采用多物理熵(超导体、真空、核衰变)训练的320亿参数语言模型。它通过输入级量子正则化技术,从三个独立的量子熵源中学习真正的量子随机性,使其注意力机制对对抗性扰动具有鲁棒性,并能有效抵抗模式崩溃。
Shawon16
这是一个基于VideoMAE架构的视频理解模型,在Kinetics数据集上预训练,并在一个未知的、可能与手语识别相关的数据集上进行了微调。模型在评估集上取得了78.11%的准确率,适用于视频分类任务。
PrimeIntellect
INTELLECT-3是一个拥有1060亿参数的混合专家(MoE)模型,通过大规模强化学习训练而成。在数学、编码和推理基准测试中展现出卓越性能,模型、训练框架和环境均以宽松许可协议开源。
这是一个基于VideoMAE-base架构在未知数据集上微调的视频理解模型,专门用于手语识别任务。模型在20个训练周期后达到了18.64%的准确率。
Clemylia
皮卡丘语言模型是Clemylia发起的一项独特的实验性语言项目,完全从零开始训练,仅基于'皮卡丘'的声音语料库,展示了小型语言模型创造原生语言身份的能力。
ostris
这是一个基于LoRA技术的文本到图像转换模型,专门用于生成具有法国印象派画家贝尔特·莫里索艺术风格的图像。该模型在FLUX.2-dev基础模型上训练,能够将普通图像或文本描述转换为莫里索风格的画作。
Gjm1234
Wan2.2是基础视频模型的重大升级版本,专注于将有效MoE架构、高效训练策略和多模态融合等创新技术融入视频扩散模型,为视频生成领域带来更强大、更高效的解决方案。
这是一个基于VideoMAE架构的视频理解模型,在Kinetics数据集预训练的基础上进行了微调,专门用于手语识别任务。模型在评估集上表现有待提升,准确率为0.0010。
TeichAI
本模型是基于Qwen3-4B-Thinking-2507基础模型,使用高推理难度的Gemini 3 Pro预览数据集进行蒸馏训练得到的模型。它专注于提升在编码和科学领域的复杂推理能力,通过特定数据集的训练,旨在将大型模型(如Gemini 3 Pro)的推理能力高效地迁移到较小规模的模型中。
Arko007
Zenyx_114M-Tiny-Edu-Instruct 是一个实验性的小型指令微调语言模型,拥有约1.14亿参数。它基于TinyEdu-50M基础模型构建,在FineWeb-Edu数据集上预训练,并在OpenHermes-2.5和CodeFeedback-Filtered混合数据集上进行了指令微调。该模型旨在探索极小架构下指令微调的极限,验证损失收敛至约1.04。
Gheya-1是LES-IA-ETOILES生态系统中的新一代基础语言模型,拥有2.02亿参数,是旧版Small-lamina系列的升级版本。该模型专为专业微调而设计,在人工智能、专业语言模型和生物学领域具有针对性训练。
该项目是一个MCP服务器,用于管理记忆文本文件,帮助Claude等AI模型在对话间保持上下文。提供添加、搜索、删除和列出记忆的功能,支持基于子字符串的精确匹配操作。设计上采用简单的文本文件存储记忆,类似于ChatGPT的记忆机制,并通过提示和训练来触发记忆存储。
线性回归MCP项目展示了使用Claude和模型上下文协议(MCP)的端到端机器学习工作流程,包括数据预处理、模型训练和评估。
这是一个为Scikit-learn模型提供标准化接口的MCP服务器,支持模型训练、评估、数据预处理及持久化等功能。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化算法和4位量化技术,实现2倍训练速度提升和80%显存节省,支持多种主流模型。
一个连接Hevy健身数据与语言模型的TypeScript服务器,通过MCP协议提供健身历史、训练进度和个人记录等工具。
该项目展示了使用Claude和模型上下文协议(MCP)进行端到端机器学习工作流的线性回归模型训练。用户只需上传CSV数据集,系统即可自动完成数据预处理、模型训练和评估(RMSE计算)全流程。
一个帮助技术教练创建结构化学习小时课程的MCP服务,通过4C学习模型生成包含代码示例和互动白板的60分钟技术训练课程
LudusMCP是一个基于自然语言命令管理Ludus实验室环境的模型上下文协议服务器,提供虚拟化训练环境的部署、配置和管理功能,支持通过WireGuard VPN或SSH隧道连接Ludus服务器。
MCP工具是一个用于GitHub仓库中管理模型上下文的工具,支持版本追踪、数据集管理、性能记录和训练配置文档化。
一个提供Whoop API访问的模型上下文协议服务器,支持查询运动周期、恢复状态、训练负荷等健康数据。
该项目是关于自动化医疗编码的研究,提供了在MIMIC-III和MIMIC-IV数据集上训练和评估医疗编码模型的代码,包括多种模型的实现和新数据集的划分。