宇树科技推出以轮式人形机器人G1-D为核心的全栈解决方案,集成数据采集、处理、标注、审核及资产管理功能,提供一站式AI模型开发支持,涵盖分布式训练、自定义模型开发与部署服务,兼容主流开源模型。
OpenAI发布两款开源AI安全模型gpt-oss-safeguard-120b/20b,基于Apache2.0许可允许自由使用。新模型突破传统安全框架,支持开发者根据自定义安全策略进行推理分类,实现灵活可控的AI安全部署。
Adobe发布专业级AI图像生成模型Firefly Image5,实现从“够用”到专业级的质变。新功能包括原生400万像素输出、分层提示编辑、自定义艺术风格模型及AI语音配乐生成,打通图像、视频、音频的AI创作闭环,重新定义创意工作流。
MiniMax发布Music1.5音乐生成模型,支持4分钟完整音乐创作,具备强控制力、人声自然、编曲丰富、结构清晰四大突破,用户可自定义风格、情绪和场景,实现“一人即乐队”的创作体验。
Radal是一个无代码平台,可使用您自己的数据微调小型语言模型。连接数据集,通过可视化配置训练,并在几分钟内部署模型。
通过快速模型切换、自定义主题和高级功能增强Perplexity AI,实现流畅的AI对话体验。
一种用于控制视频扩散模型运动模式的高效方法,支持运动模式的自定义和迁移。
个性化语言学习工具,结合Duolingo风格课程与自定义词汇表,通过互动测验和LLM生成课程复习。
mistral
$2.88
Input tokens/M
$14.4
Output tokens/M
256k
Context Length
openchat
-
8.2k
DakkaWolf
Trouper-12B GGUF是由DarwinAnim8or基于原始模型开发的文本生成模型,专门针对角色扮演和创意写作场景进行了优化。该模型从Mistral-Nemo-Base-12B微调而来,使用了自定义的'Actors'数据集进行训练,生成的文本更加自然,避免了常见的'AI语言'特征。
DevQuasar
本项目基于 moonshotai/Kimi-K2-Thinking 基础模型,通过自定义反量化脚本将原始的INT4模型转换为更高质量的文本生成模型,致力于让知识为每个人所用。
Mungert
gpt-oss-safeguard-20b是基于GPT-OSS-20b微调的安全推理模型,专门用于大语言模型输入输出过滤、在线内容标注以及信任与安全用例的离线标注。该模型采用Apache 2.0许可证,支持自定义策略和透明决策过程。
unsloth
GPT-OSS-Safeguard-20B是基于GPT-OSS构建的210亿参数安全推理模型,专门针对安全相关的文本内容分类和过滤任务进行优化。该模型支持自定义安全策略,提供透明的推理过程,适用于大语言模型输入输出过滤、在线内容标注等安全用例。
NightForger
这是AvitoTech/avibe模型的GGUF量化版本,基于Qwen3-8B基础模型进行俄语监督微调,使用自定义分词器优化俄语处理能力,专为俄语文本生成任务设计。
Clemylia
Lam-2是基于自定义架构Aricate V4开发的第二代小型语言模型(SLM),在问答任务中表现出色,具有卓越的语言连贯性和创造力。相比前代产品,Lam-2在语法正确性和文本生成质量上有显著提升。
abhi099k
基于DeBERTa-v3-large微调的AI文本检测模型,能够准确识别文本是由人类撰写还是AI生成,在自定义数据集上训练达到约97%的准确率。
Tesslate
WEBGEN DEVSTRAL IMAGES 是一个专注于网页生成的人工智能模型,能够利用 HTML、CSS、JS 和 Tailwind 技术生成单页式网页。该项目基于自定义模板进行训练,采用监督微调方法,使用 GPT-OSS-120B 生成的数据集进行训练。
inference-net
Schematron-8B是由Inference.net推出的长上下文提取模型,专注于将嘈杂的HTML转换为符合自定义模式的干净、类型化JSON。该模型能够处理长达128K标记的冗长HTML,输出100%符合指定JSON模式的有效JSON数据。
Schematron-3B是由Inference.net推出的长上下文提取模型,专注于将嘈杂的HTML转换为符合自定义模式的干净、类型化的JSON。该模型针对网页抓取、数据摄取以及将任意页面转换为结构化记录进行了专门训练,为数据处理和分析提供了高效的解决方案。
FlameF0X
SnowflakeCore-G1-Tiny2是基于GPT风格的自定义Transformer语言模型,是SnowflakeCore-G1-Tiny的改进版本。该模型使用PyTorch从头构建,在common-pile/wikimedia_filtered数据集上训练,拥有约4亿参数,支持2048 token上下文窗口,专为文本生成任务设计。
kshitijthakkar
LoggenixMoE133M是一款轻量级混合专家(MoE)因果语言模型,总参数量133M,活跃参数量80M。该模型在包含根因分析、代码生成和推理任务的自定义数据集上从头训练,支持智能体能力特殊标记,适合边缘设备部署和专业AI智能体构建。
基于Qwen 30B MoE的原型角色扮演模型,专注于提供多样化的角色扮演体验,通过精心训练消除AI陈词滥调,支持多种角色扮演格式和自定义精度调整。
lym00
Wan14BT2VFusionX 是一个文本到视频生成模型,支持通过 ComfyUI - GGUF 自定义节点进行视频生成。
QuantStack
这是bytedance-research/Phantom模型的GGUF直接转换版本,可在ComfyUI中结合ComfyUI-GGUF自定义节点使用。
DeepMostInnovations
专为印地语文本训练的自定义前沿句子嵌入模型,采用先进的Transformer架构与专用池化策略,可生成高质量的印地语句子语义表示。
city96
基于GGUF格式转换的文本生成视频模型,支持通过ComfyUI-GGUF自定义节点使用
amenIKh
基于突尼斯自定义数据集微调的XTTS V2文本转语音模型
zai-org
GLM-4-9B是智谱AI推出的GLM-4系列最新一代预训练模型的开源版本,在语义、数学、推理、代码和知识等数据集评估中表现出色,支持多语言和多种高级特性,包括网页浏览、代码执行、自定义工具调用和长文本推理等功能。
nvidia
Llama-3.1-NemoGuard-8B-Topic-Control 是一个用于对话主题控制的模型,专为任务导向型对话代理和基于自定义策略的审核而设计。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
一个提供与ClickUp工作空间无缝集成的MCP服务器,允许大型语言模型通过多种工具管理任务、文档和自定义字段。
Linear MCP Server是一个自定义实现的模型上下文协议服务器,提供与Linear API交互的工具,使AI代理能够通过Linear平台以编程方式管理问题、项目和团队。
MCP Server Notifier 是一个轻量级通知服务,与模型上下文协议(MCP)集成,可在AI代理完成任务时发送Webhook通知。支持多种Webhook提供商(如Discord、Slack、Teams等),提供图像支持、多项目管理、自定义消息等功能,易于与AI工具(如Cursor)集成。
该项目是一个概念验证(POC),展示了如何通过自定义主机实现模型上下文协议(MCP),用于测试代理系统。核心功能包括OpenAI兼容API、Google Gemini集成、流式响应支持及工具调用能力。
一个基于Node.js的Claude AI模型自定义提示词服务器,支持模块化分类管理和链式提示执行。
Unity-MCP是一个连接大型语言模型(LLM)与Unity编辑器的桥梁工具,通过暴露Unity编辑器功能给AI客户端,实现AI驱动的自动化开发流程。它支持自定义工具扩展,目前提供游戏对象管理、场景操作、资产处理等核心功能,主要适用于Unity编辑器环境。
一个集成了LangChain、自定义MCP服务器和谷歌Gemini AI模型的聊天平台,提供增强的对话功能。
Storybook MCP服务器是一个基于模型上下文协议的工具,提供与Storybook文档和组件信息交互的功能,包括获取组件列表、属性详情以及通过自定义JavaScript工具提取特定信息。
JetBrains MCP服务器插件,实现大型语言模型与JetBrains IDE的无缝集成,提供服务器端处理和自定义工具扩展点。
一个实现模型上下文协议(MCP)的服务端概念验证项目,为AI助手提供自定义工具和资源增强能力,包括文档搜索、网页爬取和谷歌搜索API集成功能。
MCP开发框架是一个用于创建与大语言模型交互自定义工具的强大框架,提供文件处理、网页内容获取等功能,支持PDF、Word、Excel等多种格式,具有智能识别、高效处理和内存优化等技术特点。
基于Gemini API的高级推理与反思工具,支持多模型集成与自定义配置
CrewAI MCP适配器是一个Python库,通过集成模型上下文协议(MCP)扩展了CrewAI的适配器生态系统,为自定义代理和工具开发提供全面支持。
自定义MCP(模型上下文协议)服务器项目
Logfire MCP服务器是一个基于OpenTelemetry的模型上下文协议服务,提供LLM访问应用遥测数据的能力,支持异常追踪和自定义SQL查询。
Gemini MCP服务器是一个为Claude桌面应用设计的中间件,通过Google Gemini AI模型实现图像生成功能。该项目提供便捷的安装配置向导,支持Docker容器化部署,并允许用户自定义生成参数。
该项目实现钉钉AI助理与本地私有部署的MCP服务通信,支持多模型配置和本地化运行,提供自定义函数开发能力。
MCP Game Helper是一个为游戏开发者提供AI辅助工具的自定义模型上下文协议服务器,专注于战斗平衡、技能分析、关卡节奏和模拟等任务。
该项目提供了为Cursor AI实现模型上下文协议(MCP)服务器的全面指南,包含基础概念、实现步骤、代码示例及集成要求,旨在通过自定义工具增强AI能力。