快手可灵AI发布数字人模型Avatar2.0,用户仅需提供一张照片和一段音乐,即可生成长达5分钟的唱歌视频。该模型显著提升了数字人的表现力,使其能够自然展现表情和肢体动作,告别僵硬“对口型”模式。这标志着AI内容创作从静态向动态叙事的重大进步。
《芝加哥论坛报》起诉AI公司Perplexity,指控其未经授权抓取新闻内容、绕过付费墙并直接生成原文级别结果。报社律师曾询问内容使用情况,Perplexity回应称未将文章用于模型训练,但承认可能涉及非逐字事实引用。
微软推出实时文本转语音模型VibeVoice-Realtime-0.5B,仅0.5B参数即可实现接近实时的语音生成,最快300毫秒内开始发声,支持中英文实时转录与语音生成,中文表现略逊于英文,但整体流畅度和还原度高,音质自然。
OpenAI宣布GPT-5.1-CodexMax全面接入API,开发者可将其整合至应用与工作流。该模型在复杂任务分解、代码生成质量及自主执行等方面显著提升,现已正式开放使用。
基于Flux AI模型,可实现文本生成图像和图像编辑转换
GPTunneL提供多模型AI服务,可生成文本、图像等,支持多方式支付。
Z-Image Turbo是高效AI图像生成模型,秒速生成高质量图像。
免费AI生成器中心,50+模型在线创作图像、视频和音乐
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
drbaph
Z-Image(造相)是一个拥有60亿参数的高效图像生成基础模型,专门解决图像生成领域的效率和质量问题。其蒸馏版本Z-Image-Turbo仅需8次函数评估就能达到或超越领先竞品,在企业级H800 GPU上可实现亚秒级推理延迟,并能在16G VRAM的消费级设备上运行。
city96
FLUX.2-dev是由black-forest-labs开发的图像生成和编辑模型,已转换为GGUF格式,专为图像生成任务优化,采用扩散模型架构,支持在ComfyUI框架中使用。
gguf-org
flux2-dev-gguf 是一个基于 FLUX.2-dev 的图像到图像转换模型,专门用于根据文本提示生成特定风格的图像。该模型支持在 ComfyUI 环境中运行,能够将文本描述转换为风格化的视觉内容。
silveroxides
基于 black-forest-labs/FLUX.2-dev 的优化版本图像生成模型,支持图像到图像的生成和编辑任务,采用 fp8_scaled 量化技术提升推理速度,特别适合在低显存 GPU 上使用。
ostris
这是一个基于LoRA技术的文本到图像转换模型,专门用于生成具有法国印象派画家贝尔特·莫里索艺术风格的图像。该模型在FLUX.2-dev基础模型上训练,能够将普通图像或文本描述转换为莫里索风格的画作。
Tongyi-MAI
Z-Image是一款功能强大且高效的图像生成模型,拥有60亿参数。它能有效解决图像生成领域在效率、质量和功能多样性方面的问题,为用户提供高质量的图像生成和编辑服务。
optimum-internal-testing
这是一个Hugging Face Hub上的🤗 Transformers模型,具体信息待补充。模型卡片为自动生成,需要模型发布者提供更多详细信息。
Gjm1234
Wan2.2是基础视频模型的重大升级版本,专注于将有效MoE架构、高效训练策略和多模态融合等创新技术融入视频扩散模型,为视频生成领域带来更强大、更高效的解决方案。
diffusers
FLUX.2-dev是基于NF4量化的DiT和文本编码器的图像生成与编辑模型,提供高质量的图像生成和编辑能力,适用于图像领域的开发应用。
bartowski
这是squ11z1的Hypnos-i1-8B模型的量化版本,使用llama.cpp工具和特定数据集进行量化处理。该模型基于Llama-3架构,提供多种量化类型选择,支持文本生成任务,适用于推理、对话等多种应用场景。
lightx2v
本仓库包含为HunyuanVideo-1.5优化的4步蒸馏模型,能够在不使用CFG(无分类器指导)的情况下实现超快速的4步推理,显著减少生成时间,同时保持高质量的视频输出。
pramjana
Qwen3-VL-4B-Instruct是阿里巴巴推出的40亿参数视觉语言模型,基于Qwen3架构开发,支持多模态理解和对话任务。该模型具备强大的图像理解和文本生成能力,能够处理复杂的视觉语言交互场景。
ExaltedSlayer
Gemma 3是谷歌推出的轻量级开源多模态模型,本版本为12B参数的指令调优量化感知训练模型,已转换为MLX框架的MXFP4格式,支持文本和图像输入并生成文本输出,具有128K上下文窗口和140+语言支持。
00quebec
这是一个专门为 Qwen-Image 设计的开源 LoRA 模型,专注于模拟现代 iPhone 摄影的真实感外观和感觉。模型基于5000多张真实 iPhone 风格照片训练,能够生成清晰、自然、适合社交媒体分享的图像。
noctrex
这是一个基于Huihui-MiroThinker-v1.0-30B模型进行的MXFP4_MOE imatrix量化版本,专门针对文本生成任务优化,在保持模型性能的同时显著减小了模型体积和推理成本。
gia-uh
塞西莉亚FT MS v1是基于塞西莉亚2B v0.1微调的古巴语言模型,专门针对古巴西班牙语进行优化,捕捉古巴语言、文化和社会的细微差别。该模型支持西班牙语和英语,主要用于文本生成任务。
black-forest-labs
FLUX.2 [dev] 是一个拥有320亿参数的校正流变压器模型,专门用于图像生成、编辑和组合任务。该模型在文本到图像生成、单参考编辑和多参考编辑方面处于领先水平,无需微调即可实现角色、对象和风格参考,支持个人、科学和商业用途。
Sachin-0001
这是一个基于🤗 Transformers库的双向自回归Transformer模型,已上传至模型中心。模型卡片由系统自动生成,具体技术细节和应用信息需要进一步补充。
Kiy-K
Fyodor-Q3-8B-Instruct 是一款专为智能推理和稳健代码生成设计的高保真指令调优模型。它基于Qwen3-8B架构,采用高秩LoRA配置训练,擅长在编码前进行规划,非常适合复杂的软件工程任务。
这是对ai-sage的GigaChat3-10B-A1.8B模型进行的量化处理版本,采用llama.cpp的imatrix量化技术,可在不同硬件条件下更高效地运行。模型支持俄语和英语,主要用于文本生成任务。
Klavis AI是一个开源项目,提供在Slack、Discord和Web平台上简单易用的MCP(模型上下文协议)服务,包括报告生成、YouTube工具、文档转换等多种功能,支持非技术用户和开发者使用AI工作流。
MiniMax官方模型上下文协议(MCP)服务器,支持文本转语音、视频/图像生成等API交互。
MemoryMesh是一个为AI模型设计的知识图谱服务器,专注于文本角色扮演游戏和互动叙事。它通过动态模式定义和自动生成工具,帮助AI在对话中维护一致且结构化的记忆,实现更丰富、更动态的交互体验。
该项目为LangChain提供Model Context Protocol(MCP)工具调用支持,通过MCP工具包实现与AI模型的交互,如文件读取和摘要生成。
mcp-hfspace是一个连接Hugging Face Spaces的MCP服务器,支持图像生成、语音处理、视觉模型等多种AI功能,简化了与Claude Desktop的集成。
DB MCP Server是一个支持多数据库的服务器,实现了模型上下文协议(MCP),为AI助手提供结构化访问数据库的能力。它支持MySQL和PostgreSQL,可同时连接多个数据库,自动生成专用工具,并遵循清晰架构设计。
Quick-start Auto MCP是一个帮助用户快速在Claude Desktop和Cursor中注册Anthropic模型上下文协议(MCP)的工具,提供RAG文档搜索、Dify工作流、实时网络搜索等功能,支持一键生成JSON配置文件。
Unreal Engine生成式AI支持插件,集成多种前沿LLM/GenAI模型API,提供游戏开发中的AI集成层支持,包括OpenAI、Claude、Deepseek等模型的聊天、结构化输出等功能,并支持Model Control Protocol(MCP)实现场景对象控制、蓝图生成等高级功能。
FileScopeMCP是一个基于TypeScript的代码分析工具,通过计算文件重要性评分、追踪依赖关系、生成可视化图表和添加文件摘要,帮助开发者快速理解代码库结构。支持多语言项目分析,提供Mermaid图表生成和持久化存储功能,可与Cursor的模型上下文协议集成。
Notebook Intelligence (NBI) 是一个为JupyterLab设计的AI编码助手和可扩展AI框架,支持GitHub Copilot及其他LLM提供商的模型,包括本地Ollama模型。它通过代码生成、自动补全和聊天界面等功能显著提升生产力,并支持Model Context Protocol (MCP) 服务集成。
AI视频生成MCP服务器,支持文本和图像输入生成动态视频,提供多种参数控制和模型选择。
该项目是一个基于Google Cloud Vertex AI Gemini模型的MCP服务器,提供丰富的工具集用于代码辅助和通用问答,支持网络搜索增强回答、文档解释生成、文件系统操作等功能。
本项目构建了一个基于IBM Watsonx.ai的检索增强生成(RAG)服务器,使用ChromaDB进行向量索引,并通过模型上下文协议(MCP)暴露接口。该系统能够处理PDF文档并基于文档内容回答问题,实现了将大型语言模型与特定领域知识相结合的智能问答功能。
该项目是一个基于Google Veo2模型的视频生成MCP服务器,支持通过文本提示或图像生成视频,并提供MCP资源访问功能。
Metabase AI助手是一个通过模型上下文协议(MCP)连接Claude Desktop/Code与Metabase和PostgreSQL数据库的AI驱动工具,支持自然语言生成SQL查询、创建数据模型和仪表板。
Loom是一个MCP服务器,支持用户与基础模型协作构建文本,通过短片段迭代生成和选择来优化长文本创作质量。
这是一个基于MCP协议的代码执行服务器原型,结合大型语言模型的代码生成能力和MCP工具集成,使AI代理能够在隔离沙箱中运行Python代码并调用外部工具。
OpenSCAD MCP服务器是一个通过文本或图像生成参数化3D模型的服务,支持多视角重建、AI图像生成、远程CUDA处理和工作流审批,最终输出OpenSCAD兼容的模型文件。
该项目通过Model Context Protocol(MCP)让大型语言模型直接理解和生成Max音频处理软件中的音效模块,支持解释、修改和创建音效模块,并提供与LLM的交互界面。
AI Studio MCP Server是一个集成Google AI Studio/Gemini API的模型上下文协议服务器,提供支持文件、对话历史和系统提示的内容生成功能。