NVIDIA与斯坦福大学联合发布通用游戏AI智能体NitroGen,在1000多款游戏、4万小时数据上训练而成,具备强大跨游戏泛化能力。研究团队将开源数据集和模型权重,推动全球AI与游戏研究发展。
科大讯飞星火大模型平台通过国家安全标准试点验证,获首批《人工智能安全国家标准符合性自评估证书》。认证依据我国首个生成式AI专项安全技术标准GB/T45654-2025,涵盖训练数据安全等要求,标志着讯飞在AI安全领域取得重要进展。
英伟达推出通用游戏智能体NitroGen,基于OpenVision动作模型,旨在成为跨虚拟世界的通用代理。其创新在于利用YouTube和Twitch上带有控制器叠加层的游戏视频作为训练数据,学习复杂操控逻辑,突破传统AI的单一用途限制。
俄勒冈州作家伊丽莎白·莱昂对Adobe提起集体诉讼,指控其训练轻量化语言模型SlimLM时,使用了包含其盗版作品在内的非法数据集。SlimLM专为移动设备文档辅助任务优化,Adobe称其基于开源数据集SlimPajama-627B训练。莱昂认为该数据集包含未经授权的作品,侵犯了作者权益。
借助高亮标注界面训练AI,从各类文档中自动提取所需数据。
创建基于您自己数据训练的AI代理
Radal是一个无代码平台,可使用您自己的数据微调小型语言模型。连接数据集,通过可视化配置训练,并在几分钟内部署模型。
Steiner 是一个基于合成数据训练的推理模型,旨在探索多种推理路径并自主验证。
Openai
-
Input tokens/M
Output tokens/M
Context Length
Anthropic
$105
$525
200
$21
Google
$0.7
$2.8
1k
Alibaba
$6
$24
256
$8
$240
52
$2
Moonshot
$4
$16
Baidu
32
$8.75
$70
400
$1.75
$14
$0.35
Tencent
24
Chatglm
128
Iflytek
Xai
$0.5
redis
这是一个由Redis微调的交叉编码器模型,专门用于语义缓存场景下的句子对重排序。它基于Alibaba-NLP的gte-reranker-modernbert-base模型,在LangCache句子对数据集上进行训练,能够高效计算两个文本之间的语义相似度得分,用于判断它们是否表达相同或相似的含义。
open-thoughts
OpenThinker-Agent-v1 是一个基于 Qwen3-8B 进行后续训练的开源智能体模型,专为终端操作和软件工程任务而设计。它首先在高质量监督微调数据集上进行训练,然后通过强化学习进一步优化,在 Terminal-Bench 2.0 和 SWE-Bench 等智能体基准测试中表现出色。
这是一个由Redis开发的、针对LangCache语义缓存任务进行微调的CrossEncoder模型。它基于成熟的`cross-encoder/ms-marco-MiniLM-L6-v2`模型,在超过100万对LangCache句子对数据集上训练,专门用于计算两个文本之间的语义相关性得分,以优化缓存命中率。
ai-sage
GigaChat3-10B-A1.8B 是 GigaChat 系列的高效对话模型,基于混合专家(MoE)架构,拥有 100 亿总参数和 18 亿活跃参数。它采用了创新的多头潜在注意力(MLA)和多令牌预测(MTP)技术,旨在优化推理吞吐量和生成速度。模型在 20T 令牌的多样化数据上训练,支持包括中文在内的 10 种语言,适用于需要快速响应的对话场景。
Shawon16
这是一个基于VideoMAE架构的视频理解模型,在Kinetics数据集上预训练,并在一个未知的、可能与手语识别相关的数据集上进行了微调。模型在评估集上取得了78.11%的准确率,适用于视频分类任务。
这是一个基于VideoMAE-base架构在未知数据集上微调的视频理解模型,专门用于手语识别任务。模型在20个训练周期后达到了18.64%的准确率。
这是一个基于VideoMAE架构的视频理解模型,在Kinetics数据集预训练的基础上进行了微调,专门用于手语识别任务。模型在评估集上表现有待提升,准确率为0.0010。
TeichAI
本模型是基于Qwen3-4B-Thinking-2507基础模型,使用高推理难度的Gemini 3 Pro预览数据集进行蒸馏训练得到的模型。它专注于提升在编码和科学领域的复杂推理能力,通过特定数据集的训练,旨在将大型模型(如Gemini 3 Pro)的推理能力高效地迁移到较小规模的模型中。
Arko007
Zenyx_114M-Tiny-Edu-Instruct 是一个实验性的小型指令微调语言模型,拥有约1.14亿参数。它基于TinyEdu-50M基础模型构建,在FineWeb-Edu数据集上预训练,并在OpenHermes-2.5和CodeFeedback-Filtered混合数据集上进行了指令微调。该模型旨在探索极小架构下指令微调的极限,验证损失收敛至约1.04。
这是一个基于VideoMAE-base架构的视频理解模型,在未知数据集上进行了20个epoch的微调训练。模型在评估集上表现有限,准确率为0.0041,损失值为7.7839。
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUF是基于Allen Institute for AI开发的Olmo-3-7B-Instruct模型的GGUF量化版本。这是一个70亿参数的自回归语言模型,通过监督微调和直接偏好优化在Tulu 2和UltraFeedback等数据集上训练,在问答和指令遵循方面表现出色。
这是基于MCG-NJU/videomae-base模型在未知数据集上微调的视频理解模型,经过20个epoch的训练,在评估集上达到13.31%的准确率。该模型专门针对视频分析任务进行优化。
DejanX13
这是一个基于Google ViT-base模型微调的房屋状况分类器,能够将房屋图像分为良好、未知、破败和中等四个类别。模型在935张房屋图像数据集上训练,验证集准确率达到81.2%。
allenai
Olmo 3是由Allen Institute for AI开发的新一代语言模型系列,包含7B和32B两种规模,有指令和思考两种变体。该模型基于Dolma 3数据集进行预训练,在Dolci数据集上进行后训练,具备长链式思维能力,在数学和编码等推理任务上表现优异。
GigaAM-v3是基于Conformer架构的俄语自动语音识别基础模型,拥有2.2-2.4亿参数。它是GigaAM系列的第三代模型,在70万小时俄语语音数据上使用HuBERT-CTC目标进行预训练,在广泛的俄语ASR领域提供最先进的性能。
OpenMMReasoner
OpenMMReasoner是一个完全透明的两阶段多模态推理方案,采用监督微调(SFT)和强化学习(RL)训练。在SFT阶段构建了874K样本的冷启动数据集,RL阶段利用74K样本进一步提升能力,在多模态推理基准测试中表现出色。
本模型是基于Qwen3-4B架构的知识蒸馏模型,通过约5440万个由Gemini 2.5 Flash生成的标记进行训练,旨在整合Gemini-2.5 Flash的行为、推理过程和知识到单一数据集中。
Olmo 3 7B RL-Zero Math是Allen AI开发的专为数学推理任务优化的70亿参数语言模型,采用RL-Zero强化学习方法在数学数据集上进行训练,能有效提升数学推理能力。
Olmo 3 7B RL-Zero Mix是Allen AI开发的7B参数规模的语言模型,属于Olmo 3系列。该模型在Dolma 3数据集上进行预训练,在Dolci数据集上进行后训练,并通过强化学习优化数学、编码和推理能力。
pnnbao-ump
VieNeu-TTS-1000h是一款先进的越南语端侧文本转语音模型,基于约1000小时高质量越南语语音数据训练,具备即时语音克隆功能,支持越南语与英语的无缝切换,能在CPU或GPU上实时合成24kHz波形。
一个功能全面的国际象棋分析MCP服务器,集成Stockfish引擎评估、主题分析、开局数据库、谜题训练和游戏可视化,提供高级象棋分析和游戏改进功能
线性回归MCP项目展示了使用Claude和模型上下文协议(MCP)的端到端机器学习工作流程,包括数据预处理、模型训练和评估。
一个基于强化学习的智能电商对话代理系统,集成了本体推理、业务工具链、对话记忆和Gradio界面,通过Stable Baselines3 PPO算法实现从数据到训练再到部署的闭环学习,能自主优化购物助手的决策策略。
这是一个为Scikit-learn模型提供标准化接口的MCP服务器,支持模型训练、评估、数据预处理及持久化等功能。
一个连接Hevy健身数据与语言模型的TypeScript服务器,通过MCP协议提供健身历史、训练进度和个人记录等工具。
该项目展示了使用Claude和模型上下文协议(MCP)进行端到端机器学习工作流的线性回归模型训练。用户只需上传CSV数据集,系统即可自动完成数据预处理、模型训练和评估(RMSE计算)全流程。
该项目是一个Strava API与Model Context Protocol (MCP) SDK的集成方案,用于分析训练数据并提供个性化建议。
MCP工具是一个用于GitHub仓库中管理模型上下文的工具,支持版本追踪、数据集管理、性能记录和训练配置文档化。
该项目是一个Strava API与Model Context Protocol (MCP) SDK的集成工具,用于分析训练数据并提供个性化建议。支持训练活动分析、自动更新令牌和API请求速率限制等功能。
一个提供Whoop API访问的模型上下文协议服务器,支持查询运动周期、恢复状态、训练负荷等健康数据。
该项目是关于自动化医疗编码的研究,提供了在MIMIC-III和MIMIC-IV数据集上训练和评估医疗编码模型的代码,包括多种模型的实现和新数据集的划分。
该项目为AI助手提供访问Haskell文档的接口,通过实时检索Hackage上的权威文档,解决AI在Haskell领域训练数据不足的问题,提升代码生成和解释的准确性。