欧洲AI公司Mistral AI推出编程助手Mistral Vibe 2.0,由全新Devstral 2模型驱动。该版本通过命令行界面提供自然语言编程支持,核心升级在于增强的代码编排能力,允许开发者用自然语言同时操作多个文件,并利用整个代码库的上下文进行开发。新版本还引入了自定义“子代”功能,以进一步细化工作流程。
腾讯搜狗输入法发布20.0版本,宣布全面AI化,从工具升级为智能助手。新版本基于大模型重塑交互逻辑,在语音、打字、翻译三大高频场景实现底层技术升级,核心提升在于更准、更快、更聪明。
腾讯搜狗输入法发布20.0.0纪念版,全面AI化升级。依托腾讯混元大模型,重点提升AI语音、翻译和打字功能。AI语音识别延时降低40%,准确率达98%,方言识别准确率提升30%。
Kimi K2.5版本近日在官网低调上线,通过web界面推送更新,用户聊天界面已自动切换。该版本包含思考模式和多模态支持,是对K2系列的迭代优化,旨在提升AI智能交互能力。
AI Age Filter让您一键看到自己年轻或年长的版本。
一个基于AI的Streamlit应用程序,帮助内容创作者预测不同版本内容的用户参与度。
Windsurf Wave 3 是一个专注于提升开发者体验的 AI 编辑器更新版本。
Gemini 2.0 是谷歌推出的最新一代生成式 AI 模型,包含 Flash、Flash-Lite 和 Pro 版本。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
-
$1
$10
256
Baidu
128
$6
$24
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUF是基于Allen Institute for AI开发的Olmo-3-7B-Instruct模型的GGUF量化版本。这是一个70亿参数的自回归语言模型,通过监督微调和直接偏好优化在Tulu 2和UltraFeedback等数据集上训练,在问答和指令遵循方面表现出色。
这是对ai-sage的GigaChat3-10B-A1.8B模型进行的量化处理版本,采用llama.cpp的imatrix量化技术,可在不同硬件条件下更高效地运行。模型支持俄语和英语,主要用于文本生成任务。
ubergarm
这是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多种量化选项,从高精度的Q8_0到极度压缩的smol-IQ1_KT,满足不同硬件条件下的部署需求。该模型支持32K上下文长度,采用MLA架构,专为对话场景优化。
DevQuasar
这是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在为大众提供免费的知识获取途径。该模型是一个大型语言模型,专注于文本生成任务。
evilfreelancer
这是ai-sage/GigaChat3-10B-A1.8B模型的量化版本,采用GGUF格式,需要特定的llama.cpp分支支持。模型采用混合专家架构,总参数量约118亿,其中激活参数量约18亿。
这是一个基于Moonshot AI技术的量化版本模型,专注于视觉语言理解与生成任务,致力于降低知识获取门槛,让知识为每个人所用。
TheStageAI
TheWhisper-Large-V3-Turbo 是 OpenAI Whisper Large V3 模型的高性能微调版本,由 TheStage AI 针对多平台实时、低延迟和低功耗语音转文本推理进行优化。支持流式转录、单词时间戳和可扩展性能,适用于实时字幕、会议和设备端语音界面等场景。
TheWhisper-Large-V3是OpenAI Whisper Large V3模型的高性能微调版本,由TheStage AI针对多平台(NVIDIA GPU和Apple Silicon)的实时、低延迟和低功耗语音转文本推理进行了优化。
noctrex
这是慧慧AI模型Huihui-MoE-60B-A3B-abliterated的MXFP4_MOE量化版本,为文本生成提供支持。该量化版本基于特定的基础模型进行处理,能在一定程度上优化模型的性能和使用体验。
nvidia
NVIDIA GPT-OSS-120B Eagle3是基于OpenAI gpt-oss-120b模型的优化版本,采用混合专家(MoE)架构,具备1200亿总参数和50亿激活参数。该模型支持商业和非商业使用,适用于文本生成任务,特别适合AI Agent系统、聊天机器人等应用开发。
amd
Llama-3.1-8B-onnx-ryzenai-npu是由AMD基于Meta的Llama-3.1-8B模型开发的优化版本,专门针对AMD Ryzen AI NPU进行优化部署。该模型通过Quark量化、OGA模型构建器和NPU专用后处理技术,在保持高质量文本生成能力的同时,显著提升了在AMD硬件上的推理效率。
geoffmunn
这是Qwen/Qwen3-0.6B语言模型的GGUF量化版本,一个拥有6亿参数的紧凑大语言模型,专为在低资源设备上进行超快速推理而设计。支持llama.cpp、LM Studio、OpenWebUI和GPT4All等框架,可在任何地方离线使用私有AI。
mradermacher
ConfTuner-Ministral是基于Mistral架构的量化大语言模型,专门针对可信赖AI场景进行微调,支持文本生成和置信度估计功能。该模型提供了多种量化版本,适用于不同资源约束环境。
这是 liushiliushi/ConfTuner-Ministral 模型的静态量化版本,适用于文本生成和置信度估计任务。该模型基于 Mistral 架构,经过微调以提供可信赖的AI输出,支持多种量化级别以满足不同硬件需求。
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,采用优化的Transformer架构,支持多模态输入(文本和图像),适用于多种AI应用场景。该模型通过TensorRT Model Optimizer进行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-32B FP4模型是阿里巴巴Qwen3-32B模型的量化版本,使用优化的Transformer架构,对权重和激活进行FP4量化,适合用于AI智能体系统、聊天机器人、RAG系统等AI应用。
NVIDIA Qwen3-32B FP4模型是阿里云Qwen3-32B模型的量化版本,使用优化的Transformer架构,通过将权重和激活量化为FP4数据类型实现高效推理。该模型支持商业和非商业用途,适用于各种AI应用场景。
这是NVIDIA对阿里巴巴Qwen3-14B模型进行FP8量化后的版本,采用优化的Transformer架构,支持131K上下文长度,适用于多种AI应用场景。
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
NextChat的定制版本,通过聊天交互创建和部署MCP服务器,集成OpenRouter的LLM模型,提供工具提取、一键部署和AI系统集成指南功能。
该项目是基于UnityMCP的改进版本,专注于通过AI辅助开发VRChat世界,提供了增强的命令执行、编辑器集成、脚本测试和性能优化等功能,特别支持UdonSharp脚本生成。
一个用于管理Claude MCP服务器配置的命令行工具,支持版本控制和配置预设管理,并提供配套MCP服务器让AI协助管理。
Foxit PDF API的MCP服务器实现,提供Python和TypeScript版本,将Foxit PDF服务的35+项操作(如创建、转换、编辑、安全、OCR等)暴露为AI代理可用的工具。
Liquidsoap MCP服务器为AI助手提供准确的Liquidsoap 2.4.0文档和代码生成支持,解决LLM因版本混淆导致的错误,确保脚本编写和问题诊断的可靠性。
Awesome MCP Servers 是一个精选的 Model Context Protocol (MCP) 服务器列表,涵盖文件系统、数据库、网络搜索、版本控制、通信、开发者工具等多个类别,旨在扩展AI模型的能力。
一个基于Model Context Protocol (MCP)的AI代理服务器,提供系统提示管理和工具扩展功能,支持创建、管理和版本控制AI代理。
Agent Knowledge MCP是一个全面的知识管理解决方案,集成了Elasticsearch搜索、文件操作、文档验证和版本控制功能,为AI助手提供强大的知识管理能力。
基于MCP协议的HTTP服务器,提供AGENTS.md知识管理、结构化任务跟踪、版本历史记录和临时工作区功能,支持多用户协作和AI子代理调用
Awesome MCP Servers是一个精选的Model Context Protocol (MCP)服务器列表,涵盖了浏览器自动化、艺术与文化、云平台、命令行、通信、客户数据平台、数据库、开发者工具、文件系统、金融科技、知识与记忆、位置服务、监控、搜索、安全、旅行与交通、版本控制等多种工具和集成。MCP是一个开放协议,使AI模型能够通过标准化的服务器实现安全地与本地和远程资源交互。
一个为Claude AI提供IaC组件持久化存储和版本追踪的MCP服务器
一个基于Spring AI MCP的服务器,用于从api.spring.io获取Spring项目版本和支持信息
Garmin Connect IQ SDK离线文档MCP服务器,为AI助手提供完整的8.2.3版本文档访问,包含API文档、编程指南、设备参考和故障排除资源。
React Native MCP服务器是一个提供全面开发工具的平台,旨在优化React Native开发体验,包括项目初始化、版本管理、自动化升级和Expo集成等功能,通过AI辅助简化开发流程。
SDKMAN交互式命令行工具,提供浏览、筛选和安装SDK的便捷界面,支持所有SDKMAN候选版本,可集成AI助手通过自然语言管理开发环境。
Archon是一个自主构建和优化AI代理的智能系统,通过迭代开发展示现代AI的关键原则,包括代理推理、领域知识整合和可扩展架构。当前版本V4提供了全面的Streamlit界面,支持Docker部署,并与MCP服务集成以实现AI IDE的无缝对接。
一个为Claude AI提供持久化存储的IaC组件记忆增强服务器,专注于Terraform和Ansible资源的版本追踪与关系映射
mcpn.ai 是一个帮助用户创建、组织和分享AI工作流和提示的工具,类似于一个动态提示库,可以跨MCP工具和服务器共享和版本控制。