阿里巴巴Qwen团队发布全新图像编辑模型Qwen-Image-Edit-2511,针对AI修图常见的人脸变形和身份丢失问题实现突破,能精准保留人物面部特征。该模型是此前版本的重大升级,支持单人肖像精细编辑和多场景处理。
近日发布的“云宇星空大模型(专业版)”是全国规划资源领域首个基础大模型,拥有6000亿参数。它融合遥感影像、三维实景、规划图纸与政务文本,采用“1个行业基座大模型+6个垂类智能体”架构,填补行业空白,推动超大城市治理科学化、智能化。其核心竞争力基于全国首个规划资源专用语料库“坤舆经”。
Waymo正测试将谷歌Gemini大模型集成到无人驾驶出租车中,打造名为“Waymo出行助手”的车载AI伴侣。一份长达1200多行的内部指令曝光,显示该AI被设计为安全、克制、高度场景化的乘客服务引擎。
OpenAI正探索在ChatGPT中植入广告,以平衡盈利与体验。团队研究调整AI模型,在用户咨询消费类问题时优先展示赞助信息。
微软Trellis 2 AI,快速将图像转为含PBR纹理的高质量3D模型
Loova集成顶尖AI模型,支持文生视频、图生视频等,有多样特效提升创意。
先进AI视频生成器,多模型支持,可实现文本、图像转专业视频。
支持20+开源模型的私密AI聊天平台,保护对话隐私与上下文。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
$2
$20
Baidu
128
DevQuasar
本项目提供了 Qwen/Qwen3-VL-32B-Thinking 的量化版本(Int4),致力于降低模型部署的硬件门槛,让先进的视觉语言模型知识为每个人所用。
chunchiliu
这是一个已发布在 Hugging Face Hub 上的 🤗 Transformers 模型,其模型卡片由系统自动生成。目前卡片中大部分详细信息(如开发者、模型类型、语言、许可证等)均处于待补充状态。
uaritm
Gemma-UA-Cardio 是两款专为乌克兰语心脏病学领域设计的专业大语言模型。它们基于 Google 的 Gemma 和 MedGemma 模型,经过两阶段微调(语言适配与领域专业化),能够以乌克兰语精准提供心血管医学信息、解答临床问题,是面向医疗专业人士的辅助工具。
dx8152
这是一个基于Qwen-Image-Edit-2509的LoRA微调模型,专门用于解决图像二次光照处理问题。它能够移除原始图像的光照效果,并根据参考图像的光照和色调,为目标图像重新生成逼真的照明和阴影,实现图像风格的迁移与融合。
prithivMLmods
CodeV是基于Qwen2.5-VL-7B-Instruct微调得到的70亿参数视觉语言模型,通过监督微调(SFT)和基于工具感知策略优化(TAPO)的强化学习(RL)两阶段训练,旨在实现可靠、可解释的视觉推理。它将视觉工具表示为可执行的Python代码,并通过奖励机制确保工具使用与问题证据一致,解决了高准确率下工具调用不相关的问题。
ActIO-UI-7B-RLVR 是由 Uniphore 发布的 70 亿参数视觉语言模型,专门用于计算机界面自动化任务。它基于 Qwen2.5-VL-7B-Instruct,通过监督微调和可验证奖励的强化学习进行优化,在 GUI 导航、元素定位和交互规划等任务上表现出色,在 WARC-Bench 基准测试中达到了开源 7B 模型的领先水平。
mradermacher
这是一个专注于网络安全领域的20B参数开源大语言模型,基于GPT-OSS架构,并融合了多个网络安全指令数据集进行微调。模型提供了多种量化版本,便于在资源受限的环境中部署,可用于生成网络安全相关的文本、代码和分析报告。
bartowski
这是对TheDrummer的Magidonia-24B-v4.3大语言模型进行量化处理后的版本。通过使用llama.cpp的imatrix量化技术,生成了从BF16到IQ2_XS等多种精度的GGUF格式文件,旨在不同硬件条件下(尤其是资源受限环境)更高效地运行模型,同时尽可能保持模型性能。
本项目是TheDrummer的Cydonia-24B-v4.3模型的量化版本,使用llama.cpp进行量化处理,旨在提供不同量化类型的模型文件,以满足不同硬件和性能需求。它是一个24B参数的大语言模型,主要用于文本生成任务。
GuangyuanSD
Z-Image-Re-Turbo 是一个基于文本生成图像的模型,它在 Z-Image-De-Turbo 模型的基础上进行了去还原和重新加速优化。该模型旨在兼顾训练时的便利性与推理时的速度,恢复了接近原始 Turbo 模型的快速生成能力,同时保持了与 Z-Image-De-Turbo 相同的训练友好特性,使其能够完美兼容 Z-Image 生态系统中已训练的大量 LoRA 模型。
MaziyarPanahi
这是NousResearch/Hermes-4.3-36B模型的GGUF量化格式版本,由MaziyarPanahi进行量化处理。GGUF是一种高效的模型格式,旨在优化本地部署和推理性能,支持多种量化级别(2位至8位),适用于广泛的文本生成任务。
redis
这是一个基于Alibaba-NLP/gte-reranker-modernbert-base模型,在LangCache句子对数据集上使用sentence-transformers库微调的跨编码器模型。它专门用于计算文本对之间的语义相似度得分,旨在为LangCache语义缓存系统提供高效的文本匹配和重排序能力。
这是一个由Redis微调的交叉编码器模型,专门用于语义缓存场景下的句子对重排序。它基于Alibaba-NLP的gte-reranker-modernbert-base模型,在LangCache句子对数据集上进行训练,能够高效计算两个文本之间的语义相似度得分,用于判断它们是否表达相同或相似的含义。
open-thoughts
OpenThinker-Agent-v1-SFT 是基于 Qwen/Qwen3-8B 进行有监督微调(SFT)得到的智能体模型。它是 OpenThinker-Agent-v1 完整训练流程(SFT + RL)的第一阶段模型,专门针对智能体任务(如终端操作和代码修复)进行优化。
OpenThinker-Agent-v1 是一个基于 Qwen3-8B 进行后续训练的开源智能体模型,专为终端操作和软件工程任务而设计。它首先在高质量监督微调数据集上进行训练,然后通过强化学习进一步优化,在 Terminal-Bench 2.0 和 SWE-Bench 等智能体基准测试中表现出色。
这是一个由Redis开发的、针对LangCache语义缓存任务进行微调的CrossEncoder模型。它基于成熟的`cross-encoder/ms-marco-MiniLM-L6-v2`模型,在超过100万对LangCache句子对数据集上训练,专门用于计算两个文本之间的语义相关性得分,以优化缓存命中率。
ai-sage
GigaChat3-10B-A1.8B 是 GigaChat 系列的高效对话模型,基于混合专家(MoE)架构,拥有 100 亿总参数和 18 亿活跃参数。它采用了创新的多头潜在注意力(MLA)和多令牌预测(MTP)技术,旨在优化推理吞吐量和生成速度。模型在 20T 令牌的多样化数据上训练,支持包括中文在内的 10 种语言,适用于需要快速响应的对话场景。
meituan-longcat
长猫图像编辑是长猫图像(Longcat-Image)的图像编辑版本,是一个支持中英双语的开源图像编辑模型。它在指令遵循、图像质量和视觉一致性方面达到了开源模型的先进水平,具备出色的精准编辑能力和一致性保留能力。
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
Klavis AI是一个开源项目,提供在Slack、Discord和Web平台上简单易用的MCP(模型上下文协议)服务,包括报告生成、YouTube工具、文档转换等多种功能,支持非技术用户和开发者使用AI工作流。
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
虚幻引擎模型上下文协议(MCP)集成的文档,帮助理解、设置和使用MCP系统。
Awesome-MCP-ZH 是一个专为中文用户打造的 MCP(模型上下文协议)资源合集,包含 MCP 的基础介绍、玩法、客户端、服务器和社区资源,帮助用户快速上手 MCP。
Zen MCP是一个多模型AI协作开发服务器,为Claude和Gemini CLI等AI编码助手提供增强的工作流工具和跨模型上下文管理。它支持多种AI模型的无缝协作,实现代码审查、调试、重构等开发任务,并能保持对话上下文在不同工作流间的延续。
为Nuxt/Vite应用提供MCP服务器支持,帮助模型更好地理解应用结构。
该项目为Notion API实现了一个MCP服务器,允许通过模型上下文协议访问和操作Notion内容,支持搜索、评论、添加页面等功能。
MCP-Framework是一个基于TypeScript的框架,用于优雅地构建模型上下文协议(MCP)服务器。它提供开箱即用的架构,支持自动目录发现工具、资源和提示,具有多种传输方式和类型安全特性。
Claude Context是一个MCP插件,通过语义代码搜索为AI编程助手提供整个代码库的深度上下文,支持多种嵌入模型和向量数据库,实现高效代码检索。
UnityMCP是一个Unity编辑器插件,实现模型上下文协议(MCP),提供Unity与AI助手的无缝集成,包括实时状态监控、远程命令执行和日志功能。
Genkit是一个用于构建AI驱动应用的开源框架,提供Node.js和Go库,支持多种AI模型和向量数据库集成,包含开发工具和插件生态系统。
PG-MCP是一个为PostgreSQL数据库设计的模型上下文协议服务器,提供AI代理发现、连接、查询和理解数据库的API,支持多数据库连接、丰富的目录信息和查询解释功能。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
FastAPI-MCP是一个将FastAPI端点作为模型上下文协议(MCP)工具暴露的库,内置认证功能,支持灵活部署和ASGI传输。
MCP Atlassian是一个为Atlassian产品(Confluence和Jira)设计的模型上下文协议服务器,支持云端和本地部署,提供AI助手集成功能。
OpenDia是一款开源浏览器扩展工具,允许AI模型直接控制用户浏览器,利用现有登录状态、书签等数据进行自动化操作,支持多种浏览器和AI模型,注重隐私保护。
HiveChat是一个专为中小团队设计的AI聊天应用,支持多种大模型服务商,提供分组管理、Token限额、第三方登录等功能。
MCP Go 是一个 Go 语言实现的模型上下文协议(MCP)服务端框架,用于连接 LLM 应用与外部数据源和工具。它提供了资源管理、工具调用、提示模板等核心功能,支持会话管理和中间件扩展。
Notion MCP服务器是一个通过官方SDK连接AI模型与Notion工作区的协议服务,提供全面的Notion操作工具集。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型自动分析查询复杂度并选择最佳模型处理请求,支持搜索、推理和深度研究三种工具。