OpenAI发布生命科学专用AI模型GPT-Rosalind,以DNA结构发现者罗莎琳德·富兰克林命名,正式进军生物化学与基因组学领域。该模型针对生物研究需求深度微调,旨在帮助科学家缩短药物研发周期,将数据分析转化为高效智能科研流程,具备卓越科学推理能力。
苹果发布两项机器学习研究:SQUIRE系统利用GPT-4o和槽查询中间表示,提升AI生成UI的可控性与微调效率;另一项研究则强化图像安全审查能力,旨在解决现有技术痛点。
日本乐天集团发布AI模型乐天AI 3.0,宣称是“日本规模最大”,但被指违规删除原始开源许可证,引发开源社区批评。该模型实为基于深度求索的DeepSeek-V3微调而成,虽属行业常态,但其处理方式涉及合规争议。
Unsloth AI推出开源无代码可视化工具Unsloth Studio,旨在简化大语言模型微调流程,降低开发门槛。该工具通过定制化反向传播内核实现训练速度翻倍和显存节省70%,无需复杂环境配置和高昂硬件成本。
先进AI背景移除工具,自动去背景,可微调,适用于多类型图像。
一站式大模型微调平台,支持多种主流模型。
由中国电信人工智能研究院研发的语言模型。
与LLaMA-Factory官方合作,一站式低代码大模型微调平台,支持超百种模型。
Alibaba
$2
Input tokens/M
-
Output tokens/M
256
Context Length
$15.8
$12.7
64
Huawei
32
$1
Baidu
131
Deepseek
8
128
Shanghai-ai-lab
uaritm
Gemma-UA-Cardio 是两款专为乌克兰语心脏病学领域设计的专业大语言模型。它们基于 Google 的 Gemma 和 MedGemma 模型,经过两阶段微调(语言适配与领域专业化),能够以乌克兰语精准提供心血管医学信息、解答临床问题,是面向医疗专业人士的辅助工具。
dx8152
这是一个基于Qwen-Image-Edit-2509的LoRA微调模型,专门用于解决图像二次光照处理问题。它能够移除原始图像的光照效果,并根据参考图像的光照和色调,为目标图像重新生成逼真的照明和阴影,实现图像风格的迁移与融合。
prithivMLmods
CodeV是基于Qwen2.5-VL-7B-Instruct微调得到的70亿参数视觉语言模型,通过监督微调(SFT)和基于工具感知策略优化(TAPO)的强化学习(RL)两阶段训练,旨在实现可靠、可解释的视觉推理。它将视觉工具表示为可执行的Python代码,并通过奖励机制确保工具使用与问题证据一致,解决了高准确率下工具调用不相关的问题。
mradermacher
这是一个专注于网络安全领域的20B参数开源大语言模型,基于GPT-OSS架构,并融合了多个网络安全指令数据集进行微调。模型提供了多种量化版本,便于在资源受限的环境中部署,可用于生成网络安全相关的文本、代码和分析报告。
noctrex
INTELLECT-3 是一个由 Prime Intellect 开发的、参数规模达 106B(激活参数 12B)的混合专家(MoE)推理模型。它基于 GLM-4.5-Air-Base 进行监督微调,并经过大规模强化学习训练,在数学、编码和推理任务上表现优异。
redis
这是一个基于Alibaba-NLP/gte-reranker-modernbert-base模型,在LangCache句子对数据集上使用sentence-transformers库微调的跨编码器模型。它专门用于计算文本对之间的语义相似度得分,旨在为LangCache语义缓存系统提供高效的文本匹配和重排序能力。
这是一个由Redis微调的交叉编码器模型,专门用于语义缓存场景下的句子对重排序。它基于Alibaba-NLP的gte-reranker-modernbert-base模型,在LangCache句子对数据集上进行训练,能够高效计算两个文本之间的语义相似度得分,用于判断它们是否表达相同或相似的含义。
open-thoughts
OpenThinker-Agent-v1-SFT 是基于 Qwen/Qwen3-8B 进行有监督微调(SFT)得到的智能体模型。它是 OpenThinker-Agent-v1 完整训练流程(SFT + RL)的第一阶段模型,专门针对智能体任务(如终端操作和代码修复)进行优化。
OpenThinker-Agent-v1 是一个基于 Qwen3-8B 进行后续训练的开源智能体模型,专为终端操作和软件工程任务而设计。它首先在高质量监督微调数据集上进行训练,然后通过强化学习进一步优化,在 Terminal-Bench 2.0 和 SWE-Bench 等智能体基准测试中表现出色。
这是一个由Redis开发的、针对LangCache语义缓存任务进行微调的CrossEncoder模型。它基于成熟的`cross-encoder/ms-marco-MiniLM-L6-v2`模型,在超过100万对LangCache句子对数据集上训练,专门用于计算两个文本之间的语义相关性得分,以优化缓存命中率。
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
rujutashashikanjoshi
这是一个基于YOLOv12 Medium架构,在自定义数据集上微调的目标检测模型。该模型专门用于高效、准确地检测图像或视频中的无人机目标,为计算机视觉应用提供支持。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
ss-lab
这是一个基于Meta LLaMA 3 8B模型,使用Unsloth框架进行高效微调,并转换为GGUF格式的轻量级文本生成模型。模型针对Alpaca数据集进行了优化,适用于本地部署和推理,特别适合在资源受限的环境中使用。
本项目提供了一个基于微软Phi-3.5-mini-instruct模型进行微调的文本生成模型,已转换为GGUF格式,适用于llama.cpp推理框架。模型在philschmid/guanaco-sharegpt-style数据集上进行了微调,优化了指令遵循和对话能力,适用于资源受限环境下的高效文本生成任务。
Shawon16
这是一个基于VideoMAE架构的视频理解模型,在Kinetics数据集上预训练,并在一个未知的、可能与手语识别相关的数据集上进行了微调。模型在评估集上取得了78.11%的准确率,适用于视频分类任务。
这是一个基于VideoMAE-base架构微调的视频理解模型,专门针对手语识别任务进行优化。模型在WLASL数据集上训练了200个epoch,采用TimeSformer架构处理视频序列。
这是一个基于VideoMAE-base架构微调的视频理解模型,专门针对手语识别任务进行优化。模型在WLASL100数据集上训练了200个epoch,具备视频动作识别能力。
RinggAI
这是一个专为通话记录分析打造的混合语言AI模型,能够处理印地语、英语和混合印地英语的通话转录内容。模型基于Qwen2.5-1.5B-Instruct进行微调,具备强大的多语言理解和信息提取能力。
这是一个基于VideoMAE-base架构在未知数据集上微调的视频理解模型,专门用于手语识别任务。模型在20个训练周期后达到了18.64%的准确率。
OpenManus是一个无需邀请码即可实现各种想法的开源项目,由MetaGPT团队成员在3小时内构建完成。它提供了一个简单的实现,允许用户创建自己的智能代理,并支持多种语言和配置。项目欢迎建议、贡献和反馈,未来计划包括更好的规划、实时演示、回放功能、RL微调模型和全面的基准测试。
项目涉及LangChain框架的文档、示例代码库及社区资源,包括Python编程、AI代理开发、FastAPI集成、LLM微调等技术内容。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化算法和4位量化技术,实现2倍训练速度提升和80%显存节省,支持多种主流模型。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化技术实现2倍速度提升和80%内存节省。
Unsloth MCP Server是一个用于高效微调大语言模型的服务,基于Unsloth库实现2倍加速和80%内存节省,支持多种模型和量化技术。