可灵AI 3.0版本发布,核心升级视频与图片生成能力,聚焦叙事、画面可控及多模态协同。新增“智能分镜”功能,旨在提升创作体验。
微软推出“出版商内容市场”计划,旨在建立透明合规的AI内容授权平台,为AI训练提供合法数据来源。该平台简化授权流程,打造数字内容治理方案,应对日益激烈的数据版权争议。
快手可灵AI升级至3.0版本,通过多模态一体化输入输出,重构AI视频创作流程,推动“人人皆可导演”时代到来。其核心突破在于视频生成从“片段生成”升级为“深度叙事”,并全球首创多图/视频主体参考功能,使创作者能精准锁定并控制视频主体。
苹果更新“Apple 支持”应用至5.12版本,界面微调并强化AI功能。原“聊天”标签更名为“提问”,更新图标,并移除“早期预览”标识,显示其AI助手服务已趋于成熟,正式融入售后体系。
Anymelo AI音乐生成器,无需技能,描述风格即可创作免版税音乐。
TryMusic AI可秒速将文本或歌词转为音乐,生成专业级无版权音乐。
在线免费使用AI从文本创作音乐,秒速生成高品质免版税歌曲。
免费在线AI音乐生成器,可瞬间创作免版税、广播级音乐。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Openai
-
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$1
$10
256
Baidu
128
$6
$24
Bytedance
$1.2
$3.6
4
$2
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUF是基于Allen Institute for AI开发的Olmo-3-7B-Instruct模型的GGUF量化版本。这是一个70亿参数的自回归语言模型,通过监督微调和直接偏好优化在Tulu 2和UltraFeedback等数据集上训练,在问答和指令遵循方面表现出色。
这是对ai-sage的GigaChat3-10B-A1.8B模型进行的量化处理版本,采用llama.cpp的imatrix量化技术,可在不同硬件条件下更高效地运行。模型支持俄语和英语,主要用于文本生成任务。
ubergarm
这是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多种量化选项,从高精度的Q8_0到极度压缩的smol-IQ1_KT,满足不同硬件条件下的部署需求。该模型支持32K上下文长度,采用MLA架构,专为对话场景优化。
DevQuasar
这是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在为大众提供免费的知识获取途径。该模型是一个大型语言模型,专注于文本生成任务。
evilfreelancer
这是ai-sage/GigaChat3-10B-A1.8B模型的量化版本,采用GGUF格式,需要特定的llama.cpp分支支持。模型采用混合专家架构,总参数量约118亿,其中激活参数量约18亿。
这是一个基于Moonshot AI技术的量化版本模型,专注于视觉语言理解与生成任务,致力于降低知识获取门槛,让知识为每个人所用。
TheStageAI
TheWhisper-Large-V3-Turbo 是 OpenAI Whisper Large V3 模型的高性能微调版本,由 TheStage AI 针对多平台实时、低延迟和低功耗语音转文本推理进行优化。支持流式转录、单词时间戳和可扩展性能,适用于实时字幕、会议和设备端语音界面等场景。
TheWhisper-Large-V3是OpenAI Whisper Large V3模型的高性能微调版本,由TheStage AI针对多平台(NVIDIA GPU和Apple Silicon)的实时、低延迟和低功耗语音转文本推理进行了优化。
noctrex
这是慧慧AI模型Huihui-MoE-60B-A3B-abliterated的MXFP4_MOE量化版本,为文本生成提供支持。该量化版本基于特定的基础模型进行处理,能在一定程度上优化模型的性能和使用体验。
nvidia
NVIDIA GPT-OSS-120B Eagle3是基于OpenAI gpt-oss-120b模型的优化版本,采用混合专家(MoE)架构,具备1200亿总参数和50亿激活参数。该模型支持商业和非商业使用,适用于文本生成任务,特别适合AI Agent系统、聊天机器人等应用开发。
amd
Llama-3.1-8B-onnx-ryzenai-npu是由AMD基于Meta的Llama-3.1-8B模型开发的优化版本,专门针对AMD Ryzen AI NPU进行优化部署。该模型通过Quark量化、OGA模型构建器和NPU专用后处理技术,在保持高质量文本生成能力的同时,显著提升了在AMD硬件上的推理效率。
geoffmunn
这是Qwen/Qwen3-0.6B语言模型的GGUF量化版本,一个拥有6亿参数的紧凑大语言模型,专为在低资源设备上进行超快速推理而设计。支持llama.cpp、LM Studio、OpenWebUI和GPT4All等框架,可在任何地方离线使用私有AI。
mradermacher
ConfTuner-Ministral是基于Mistral架构的量化大语言模型,专门针对可信赖AI场景进行微调,支持文本生成和置信度估计功能。该模型提供了多种量化版本,适用于不同资源约束环境。
这是 liushiliushi/ConfTuner-Ministral 模型的静态量化版本,适用于文本生成和置信度估计任务。该模型基于 Mistral 架构,经过微调以提供可信赖的AI输出,支持多种量化级别以满足不同硬件需求。
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,采用优化的Transformer架构,支持多模态输入(文本和图像),适用于多种AI应用场景。该模型通过TensorRT Model Optimizer进行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-32B FP4模型是阿里巴巴Qwen3-32B模型的量化版本,使用优化的Transformer架构,对权重和激活进行FP4量化,适合用于AI智能体系统、聊天机器人、RAG系统等AI应用。
NVIDIA Qwen3-32B FP4模型是阿里云Qwen3-32B模型的量化版本,使用优化的Transformer架构,通过将权重和激活量化为FP4数据类型实现高效推理。该模型支持商业和非商业用途,适用于各种AI应用场景。
这是NVIDIA对阿里巴巴Qwen3-14B模型进行FP8量化后的版本,采用优化的Transformer架构,支持131K上下文长度,适用于多种AI应用场景。
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
NextChat的定制版本,通过聊天交互创建和部署MCP服务器,集成OpenRouter的LLM模型,提供工具提取、一键部署和AI系统集成指南功能。
一个用于管理Claude MCP服务器配置的命令行工具,支持版本控制和配置预设管理,并提供配套MCP服务器让AI协助管理。
一个基于TypeScript的MCP服务器,通过WebSocket连接控制Minecraft基岩版,提供玩家控制、世界操作、建筑工具等功能,支持与MCP客户端集成实现AI自动化。
该项目是基于UnityMCP的改进版本,专注于通过AI辅助开发VRChat世界,提供了增强的命令执行、编辑器集成、脚本测试和性能优化等功能,特别支持UdonSharp脚本生成。
Awesome MCP Servers 是一个精选的 Model Context Protocol (MCP) 服务器列表,涵盖文件系统、数据库、网络搜索、版本控制、通信、开发者工具等多个类别,旨在扩展AI模型的能力。
Liquidsoap MCP服务器为AI助手提供准确的Liquidsoap 2.4.0文档和代码生成支持,解决LLM因版本混淆导致的错误,确保脚本编写和问题诊断的可靠性。
Foxit PDF API的MCP服务器实现,提供Python和TypeScript版本,将Foxit PDF服务的35+项操作(如创建、转换、编辑、安全、OCR等)暴露为AI代理可用的工具。
基于MCP协议的HTTP服务器,提供AGENTS.md知识管理、结构化任务跟踪、版本历史记录和临时工作区功能,支持多用户协作和AI子代理调用
Agent Knowledge MCP是一个全面的知识管理解决方案,集成了Elasticsearch搜索、文件操作、文档验证和版本控制功能,为AI助手提供强大的知识管理能力。
一个基于Model Context Protocol (MCP)的AI代理服务器,提供系统提示管理和工具扩展功能,支持创建、管理和版本控制AI代理。
Letta MCP Server Railway版是一个专为云部署优化的HTTP传输MCP服务器,可让AI客户端无缝连接Letta.ai的强大状态代理,支持一键部署到Railway平台,提供20+个代理管理、对话、记忆管理和监控工具。
一个基于Spring AI MCP的服务器,用于从api.spring.io获取Spring项目版本和支持信息
一个通过浏览器自动化实现与OneNote网页版交互的MCP服务器,支持AI助手程序化操作共享笔记本
一个为Claude AI提供IaC组件持久化存储和版本追踪的MCP服务器
Awesome MCP Servers是一个精选的Model Context Protocol (MCP)服务器列表,涵盖了浏览器自动化、艺术与文化、云平台、命令行、通信、客户数据平台、数据库、开发者工具、文件系统、金融科技、知识与记忆、位置服务、监控、搜索、安全、旅行与交通、版本控制等多种工具和集成。MCP是一个开放协议,使AI模型能够通过标准化的服务器实现安全地与本地和远程资源交互。
React Native MCP服务器是一个提供全面开发工具的平台,旨在优化React Native开发体验,包括项目初始化、版本管理、自动化升级和Expo集成等功能,通过AI辅助简化开发流程。
这是一个将Python版MySQL MCP服务器转换为Java实现的项目,提供安全的MySQL数据库交互接口,允许AI助手通过受控方式访问数据库资源。
Garmin Connect IQ SDK离线文档MCP服务器,为AI助手提供完整的8.2.3版本文档访问,包含API文档、编程指南、设备参考和故障排除资源。