钉钉发布全球首个AI工作智能操作系统Agent OS,开启“人与AI协同”新工作方式。该系统在AI钉钉1.1新品发布暨生态大会上亮相,命名为“木兰”,是继1.0版本“蕨”后的重要升级,展现了钉钉在企业级AI生态中的创新布局。
OpenAI推出“与ChatGPT共度一年”年度回顾功能,为用户提供个性化使用报告。该功能类似Spotify Wrapped,通过视觉化设计展示用户全年对话习惯,并授予特定徽章,增强趣味性和互动性。
俄勒冈州作家伊丽莎白·莱昂对Adobe提起集体诉讼,指控其训练轻量化语言模型SlimLM时,使用了包含其盗版作品在内的非法数据集。SlimLM专为移动设备文档辅助任务优化,Adobe称其基于开源数据集SlimPajama-627B训练。莱昂认为该数据集包含未经授权的作品,侵犯了作者权益。
Adobe因训练AI模型被诉,指控其使用盗版书籍数据集SlimPajama-627B,内含作者伊丽莎白·里昂等受版权保护作品,涉嫌侵权。
使用先进AI生成免版税音乐、歌曲及人声,无需音乐技能
免费AI音乐生成器,可将文本转8分钟专业音乐,无版权风险
MusicAI是免费AI音乐与视频生成器,秒将想法歌词转为免版权音乐
免费在线AI音乐生成器,免注册,可创作歌曲和歌词,提供免版税音乐。
Xai
$1.4
输入tokens/百万
$3.5
输出tokens/百万
2k
上下文长度
Openai
-
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$1
$10
256
$6
$24
Baidu
128
Bytedance
$1.2
$3.6
4
$2
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUF是基于Allen Institute for AI开发的Olmo-3-7B-Instruct模型的GGUF量化版本。这是一个70亿参数的自回归语言模型,通过监督微调和直接偏好优化在Tulu 2和UltraFeedback等数据集上训练,在问答和指令遵循方面表现出色。
这是对ai-sage的GigaChat3-10B-A1.8B模型进行的量化处理版本,采用llama.cpp的imatrix量化技术,可在不同硬件条件下更高效地运行。模型支持俄语和英语,主要用于文本生成任务。
ubergarm
这是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多种量化选项,从高精度的Q8_0到极度压缩的smol-IQ1_KT,满足不同硬件条件下的部署需求。该模型支持32K上下文长度,采用MLA架构,专为对话场景优化。
DevQuasar
这是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在为大众提供免费的知识获取途径。该模型是一个大型语言模型,专注于文本生成任务。
evilfreelancer
这是ai-sage/GigaChat3-10B-A1.8B模型的量化版本,采用GGUF格式,需要特定的llama.cpp分支支持。模型采用混合专家架构,总参数量约118亿,其中激活参数量约18亿。
这是一个基于Moonshot AI技术的量化版本模型,专注于视觉语言理解与生成任务,致力于降低知识获取门槛,让知识为每个人所用。
TheStageAI
TheWhisper-Large-V3-Turbo 是 OpenAI Whisper Large V3 模型的高性能微调版本,由 TheStage AI 针对多平台实时、低延迟和低功耗语音转文本推理进行优化。支持流式转录、单词时间戳和可扩展性能,适用于实时字幕、会议和设备端语音界面等场景。
TheWhisper-Large-V3是OpenAI Whisper Large V3模型的高性能微调版本,由TheStage AI针对多平台(NVIDIA GPU和Apple Silicon)的实时、低延迟和低功耗语音转文本推理进行了优化。
noctrex
这是慧慧AI模型Huihui-MoE-60B-A3B-abliterated的MXFP4_MOE量化版本,为文本生成提供支持。该量化版本基于特定的基础模型进行处理,能在一定程度上优化模型的性能和使用体验。
nvidia
NVIDIA GPT-OSS-120B Eagle3是基于OpenAI gpt-oss-120b模型的优化版本,采用混合专家(MoE)架构,具备1200亿总参数和50亿激活参数。该模型支持商业和非商业使用,适用于文本生成任务,特别适合AI Agent系统、聊天机器人等应用开发。
amd
Llama-3.1-8B-onnx-ryzenai-npu是由AMD基于Meta的Llama-3.1-8B模型开发的优化版本,专门针对AMD Ryzen AI NPU进行优化部署。该模型通过Quark量化、OGA模型构建器和NPU专用后处理技术,在保持高质量文本生成能力的同时,显著提升了在AMD硬件上的推理效率。
geoffmunn
这是Qwen/Qwen3-0.6B语言模型的GGUF量化版本,一个拥有6亿参数的紧凑大语言模型,专为在低资源设备上进行超快速推理而设计。支持llama.cpp、LM Studio、OpenWebUI和GPT4All等框架,可在任何地方离线使用私有AI。
mradermacher
ConfTuner-Ministral是基于Mistral架构的量化大语言模型,专门针对可信赖AI场景进行微调,支持文本生成和置信度估计功能。该模型提供了多种量化版本,适用于不同资源约束环境。
这是 liushiliushi/ConfTuner-Ministral 模型的静态量化版本,适用于文本生成和置信度估计任务。该模型基于 Mistral 架构,经过微调以提供可信赖的AI输出,支持多种量化级别以满足不同硬件需求。
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,采用优化的Transformer架构,支持多模态输入(文本和图像),适用于多种AI应用场景。该模型通过TensorRT Model Optimizer进行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-32B FP4模型是阿里巴巴Qwen3-32B模型的量化版本,使用优化的Transformer架构,对权重和激活进行FP4量化,适合用于AI智能体系统、聊天机器人、RAG系统等AI应用。
NVIDIA Qwen3-32B FP4模型是阿里云Qwen3-32B模型的量化版本,使用优化的Transformer架构,通过将权重和激活量化为FP4数据类型实现高效推理。该模型支持商业和非商业用途,适用于各种AI应用场景。
这是NVIDIA对阿里巴巴Qwen3-14B模型进行FP8量化后的版本,采用优化的Transformer架构,支持131K上下文长度,适用于多种AI应用场景。
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
NextChat的定制版本,通过聊天交互创建和部署MCP服务器,集成OpenRouter的LLM模型,提供工具提取、一键部署和AI系统集成指南功能。
一个基于TypeScript的MCP服务器,通过WebSocket连接控制Minecraft基岩版,提供玩家控制、世界操作、建筑工具等功能,支持与MCP客户端集成实现AI自动化。
一个用于管理Claude MCP服务器配置的命令行工具,支持版本控制和配置预设管理,并提供配套MCP服务器让AI协助管理。
该项目是基于UnityMCP的改进版本,专注于通过AI辅助开发VRChat世界,提供了增强的命令执行、编辑器集成、脚本测试和性能优化等功能,特别支持UdonSharp脚本生成。
Awesome MCP Servers 是一个精选的 Model Context Protocol (MCP) 服务器列表,涵盖文件系统、数据库、网络搜索、版本控制、通信、开发者工具等多个类别,旨在扩展AI模型的能力。
Liquidsoap MCP服务器为AI助手提供准确的Liquidsoap 2.4.0文档和代码生成支持,解决LLM因版本混淆导致的错误,确保脚本编写和问题诊断的可靠性。
Letta MCP Server Railway版是一个专为云部署优化的HTTP传输MCP服务器,可让AI客户端无缝连接Letta.ai的强大状态代理,支持一键部署到Railway平台,提供20+个代理管理、对话、记忆管理和监控工具。
一个基于Model Context Protocol (MCP)的AI代理服务器,提供系统提示管理和工具扩展功能,支持创建、管理和版本控制AI代理。
基于MCP协议的HTTP服务器,提供AGENTS.md知识管理、结构化任务跟踪、版本历史记录和临时工作区功能,支持多用户协作和AI子代理调用
Agent Knowledge MCP是一个全面的知识管理解决方案,集成了Elasticsearch搜索、文件操作、文档验证和版本控制功能,为AI助手提供强大的知识管理能力。
一个基于Spring AI MCP的服务器,用于从api.spring.io获取Spring项目版本和支持信息
Awesome MCP Servers是一个精选的Model Context Protocol (MCP)服务器列表,涵盖了浏览器自动化、艺术与文化、云平台、命令行、通信、客户数据平台、数据库、开发者工具、文件系统、金融科技、知识与记忆、位置服务、监控、搜索、安全、旅行与交通、版本控制等多种工具和集成。MCP是一个开放协议,使AI模型能够通过标准化的服务器实现安全地与本地和远程资源交互。
一个通过浏览器自动化实现与OneNote网页版交互的MCP服务器,支持AI助手程序化操作共享笔记本
一个为Claude AI提供IaC组件持久化存储和版本追踪的MCP服务器
Garmin Connect IQ SDK离线文档MCP服务器,为AI助手提供完整的8.2.3版本文档访问,包含API文档、编程指南、设备参考和故障排除资源。
React Native MCP服务器是一个提供全面开发工具的平台,旨在优化React Native开发体验,包括项目初始化、版本管理、自动化升级和Expo集成等功能,通过AI辅助简化开发流程。
这是一个将Python版MySQL MCP服务器转换为Java实现的项目,提供安全的MySQL数据库交互接口,允许AI助手通过受控方式访问数据库资源。
SDKMAN交互式命令行工具,提供浏览、筛选和安装SDK的便捷界面,支持所有SDKMAN候选版本,可集成AI助手通过自然语言管理开发环境。