《芝加哥论坛报》起诉AI公司Perplexity,指控其未经授权抓取新闻内容、绕过付费墙并直接生成原文级别结果。报社律师曾询问内容使用情况,Perplexity回应称未将文章用于模型训练,但承认可能涉及非逐字事实引用。
OpenAI测试"忏悔"机制,训练AI在单独报告中承认违规行为,即使原始回答存在欺骗性,也能因诚实获得奖励,旨在防止模型为追求奖励而采取投机取巧或忽视安全规则的行为。
OpenAI推出“忏悔”训练框架,旨在提升AI模型的诚实度。该机制要求模型在给出主要答案后,主动承认自身错误或不当行为,以纠正传统训练中可能导致的掩盖真相或提供不准确回答的问题。
OpenAI推出“忏悔”框架,训练AI模型主动承认不当行为或问题决策,旨在解决大语言模型因追求“符合预期”而可能产生虚假陈述的问题。该框架引导模型在给出主要答案后进行二次回应,详细说明其推理过程。
提供多种预训练模型,支持多维度筛选,助力AI模型应用与开发。
由 Google 训练的 AI 模型,用于对野生动物相机陷阱图像中的物种进行分类。
Fiverr Go 是一套 AI 助力工具,赋能自由职业者训练个性化 AI 模型,为客户提供即时独特作品。
Steev 是一款用于优化 AI 模型训练的工具,帮助用户提升训练效率和模型性能。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUF是基于Allen Institute for AI开发的Olmo-3-7B-Instruct模型的GGUF量化版本。这是一个70亿参数的自回归语言模型,通过监督微调和直接偏好优化在Tulu 2和UltraFeedback等数据集上训练,在问答和指令遵循方面表现出色。
VibeThinker-1.5B是微博AI推出的15亿参数密集语言模型,基于Qwen2.5-Math-1.5B微调,专门针对数学和算法编码问题设计。采用'频谱到信号原理'框架训练,在多个数学竞赛测试中超越规模更大的模型,训练成本约7800美元,支持最长约40k词元的输出。
allenai
Olmo 3是由Allen Institute for AI开发的新一代语言模型家族,包含7B和32B的指令和思维变体。该模型在长链式思维方面表现出色,能显著提升数学和编码等推理任务的性能。所有代码、检查点和训练细节都将公开,推动语言模型科学发展。
Olmo 3是由Allen Institute for AI开发的新一代语言模型系列,包含7B和32B两种规模,有指令和思考两种变体。该模型基于Dolma 3数据集进行预训练,在Dolci数据集上进行后训练,具备长链式思维能力,在数学和编码等推理任务上表现优异。
Olmo 3是由Allen Institute for AI开发的一系列语言模型,包含7B和32B两种规模,具有指令式和思考式两种变体。该模型在长链式思维方面表现出色,能有效提升数学和编码等推理任务的性能。采用多阶段训练方式,包括有监督微调、直接偏好优化和可验证奖励的强化学习。
Olmo-3-7B-Think-DPO是Allen Institute for AI开发的7B参数语言模型,具有长链式思考能力,在数学和编码等推理任务中表现出色。该模型经过监督微调、直接偏好优化和基于可验证奖励的强化学习等多阶段训练,专为研究和教育用途设计。
Olmo 3 7B RL-Zero Math是Allen AI开发的专为数学推理任务优化的70亿参数语言模型,采用RL-Zero强化学习方法在数学数据集上进行训练,能有效提升数学推理能力。
Olmo 3 7B RL-Zero Mix是Allen AI开发的7B参数规模的语言模型,属于Olmo 3系列。该模型在Dolma 3数据集上进行预训练,在Dolci数据集上进行后训练,并通过强化学习优化数学、编码和推理能力。
DakkaWolf
Trouper-12B GGUF是由DarwinAnim8or基于原始模型开发的文本生成模型,专门针对角色扮演和创意写作场景进行了优化。该模型从Mistral-Nemo-Base-12B微调而来,使用了自定义的'Actors'数据集进行训练,生成的文本更加自然,避免了常见的'AI语言'特征。
Olmo-3-32B-Think-DPO是Allen AI开发的32B参数语言模型,采用直接偏好优化(DPO)训练,具备长链式思维推理能力,在数学、编码等复杂推理任务上表现优异。
Olmo 3是Allen Institute for AI (Ai2)开发的全新32B参数语言模型家族,包含Base、Instruct和Think等变体。该模型基于Dolma 3数据集训练,支持65,536的长上下文处理,旨在推动语言模型科学发展。模型完全开源,遵循Apache 2.0许可证。
DevQuasar
这是NVIDIA基于Qwen3架构开发的32B参数奖励模型,专门用于强化学习中的奖励评分和原则对齐,帮助训练更安全、更符合人类价值观的AI系统。
SadraCoding
SDXL-Deepfake-Detector 是一款精准检测 AI 生成人脸的工具,专注于维护数字世界的真实性,为抵御视觉虚假信息提供隐私保护且开源的解决方案。该模型通过微调预训练模型实现轻量级且高准确率的检测。
Olmo-3-7B-Think-SFT是Allen Institute for AI开发的7B参数语言模型,具有长链式思考能力,在数学和编码等推理任务中表现优异。该模型基于Dolma 3数据集预训练,并在Dolci数据集上进行了后续训练。
citizenplain
这是一个基于Wan2.1-T2V-14B模型训练的LoRA适配器,专门用于文本到视频转换任务。该模型使用AI Toolkit训练,为视频生成应用提供支持。
lichorosario
这是一个基于Qwen-Image模型训练的LoRA(Low-Rank Adaptation)模型,专门用于文本到图像的生成任务。该项目使用AI Toolkit训练,能够将文本描述转化为高质量的图像,支持在多种图像生成工具中使用。
hyperchainsad
这是一个基于Wan2.2-T2V-A14B基础模型训练的文本到视频LoRA模型,使用AI Toolkit工具包进行训练,专门用于增强文本到视频的转换能力。
Zlikwid
这是一个基于Qwen/Qwen-Image-Edit-2509基础模型训练的LoRA图像生成模型,专门用于图像到图像的转换任务,使用AI Toolkit by Ostris进行训练。
expert78
kontext-dusk-3-lora是一个基于FLUX.1-Kontext-dev基础模型训练的LoRA图像生成模型,专门用于生成黄昏蓝调时刻风格的图像。该模型通过特定触发词触发,支持多种主流AI图像生成工具使用。
abhi099k
基于DeBERTa-v3-large微调的AI文本检测模型,能够准确识别文本是由人类撰写还是AI生成,在自定义数据集上训练达到约97%的准确率。
该项目是一个MCP服务器,用于管理记忆文本文件,帮助Claude等AI模型在对话间保持上下文。提供添加、搜索、删除和列出记忆的功能,支持基于子字符串的精确匹配操作。设计上采用简单的文本文件存储记忆,类似于ChatGPT的记忆机制,并通过提示和训练来触发记忆存储。