Meta AI发布Pixio图像模型,通过改进MAE框架,证明简单训练路径在深度估计和3D重建等任务中性能卓越,挑战了MAE逊于DINOv2等复杂算法的传统认知。
初创公司Resemble AI发布开源语音模型“Chatterbox Turbo”,挑战行业巨头。该模型仅需5秒音频即可克隆语音,延迟低至150毫秒,适用于实时AI代理、客服、游戏角色等场景,性能显著提升。
阿里巴巴开源Fun-Audio-Chat-8B语音大模型,主打超低延迟与自然交互,性能媲美GPT-4o Audio等闭源模型。它具备实时理解和情感感知能力,旨在成为真正的AI语音伙伴。
MiniMax M2.1正式发布,这是一款专为真实编码和AI组织设计的先进开源模型。它拥有100亿激活量,在SWE-multilingual测试中得分72.5%,在VIBE-bench测试中高达88.6%,性能超越Gemini3Pro和Claude4.5Sonnet等闭源模型,标志着代理时代的重要进展。
Snowglobe帮助AI团队在规模上测试LLM应用。在推出之前模拟真实对话,发现风险并提高模型性能。
GPT 5是下一代AI模型,提供卓越的编码、数学和推理性能。
实时动态路由AI模型到最佳提供商,以实现最佳性能和成本节省。
DeepSeek-V3/R1 推理系统是一个高性能的分布式推理架构,专为大规模 AI 模型优化设计。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
allenai
Olmo 3是由Allen Institute for AI开发的新一代语言模型家族,包含7B和32B的指令和思维变体。该模型在长链式思维方面表现出色,能显著提升数学和编码等推理任务的性能。所有代码、检查点和训练细节都将公开,推动语言模型科学发展。
XiaomiMiMo
米模具身模型(MiMo-Embodied)是一款强大的跨具身视觉语言模型,在自动驾驶和具身AI任务中均展现出了卓越的性能。它是首个将这两个关键领域相结合的开源视觉语言模型,显著提升了在动态物理环境中的理解和推理能力。
Olmo 3是由Allen Institute for AI开发的一系列语言模型,包含7B和32B两种规模,具有指令式和思考式两种变体。该模型在长链式思维方面表现出色,能有效提升数学和编码等推理任务的性能。采用多阶段训练方式,包括有监督微调、直接偏好优化和可验证奖励的强化学习。
alenphilip
这是一款专门用于Python代码审查的AI模型,基于Qwen2.5-7B-Instruct微调,能够识别安全漏洞、性能问题并提供代码质量改进建议。
pnnbao-ump
VieNeu-TTS是首个可在个人设备上运行的越南语文本转语音模型,具备即时语音克隆能力。基于NeuTTS Air微调,能够生成自然逼真的越南语语音,在CPU上具备实时性能。
TheStageAI
TheWhisper-Large-V3-Turbo 是 OpenAI Whisper Large V3 模型的高性能微调版本,由 TheStage AI 针对多平台实时、低延迟和低功耗语音转文本推理进行优化。支持流式转录、单词时间戳和可扩展性能,适用于实时字幕、会议和设备端语音界面等场景。
noctrex
这是慧慧AI模型Huihui-MoE-60B-A3B-abliterated的MXFP4_MOE量化版本,为文本生成提供支持。该量化版本基于特定的基础模型进行处理,能在一定程度上优化模型的性能和使用体验。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
GLM-4.6是智谱AI推出的新一代文本生成模型,相比GLM-4.5在多个方面有显著改进,包括更长的上下文窗口、更优的编码性能和更强的推理能力。该模型在多个公开基准测试中表现出色,与国内外领先模型相比具有竞争优势。
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
zai-org
GLM-4.6是智谱AI推出的新一代文本生成模型,相比GLM-4.5在上下文处理、编码性能、推理能力等方面实现显著提升,支持200K上下文长度,具备更强的智能体能力和精致的写作能力。
GLM-4.6-FP8是智谱AI推出的新一代文本生成模型,相比GLM-4.5在多个关键方面有显著改进。该模型具有更长的上下文窗口、卓越的编码性能、高级推理能力和更强大的智能体功能,能够处理更复杂的任务。
Salesforce
CoDA是Salesforce AI Research研发的基于扩散模型的代码生成语言模型,具备双向上下文理解能力,专为强大的代码生成和补全任务而设计。该模型仅17亿参数,在保持低计算要求的同时实现了卓越的代码生成性能。
neuphonic
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、端侧文本转语音(TTS)语言模型。基于0.5B参数的大语言模型骨干构建,能为本地设备带来自然的语音、实时性能、内置安全性和说话人克隆功能。
NeuTTS Air是全球首个具有即时语音克隆功能的超逼真设备端文本转语音模型,基于0.5B参数的大语言模型骨干构建,能在本地设备上实现自然语音生成、实时性能和说话人克隆功能。
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、设备端文本转语音(TTS)语言模型。基于0.5B大语言模型骨干网络构建,能为本地设备带来自然的语音、实时性能、内置安全功能和说话人克隆能力。
nvidia
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,采用优化的Transformer架构,支持多模态输入(文本和图像),适用于多种AI应用场景。该模型通过TensorRT Model Optimizer进行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-8B FP4 模型是阿里巴巴Qwen3-8B模型的量化版本,采用优化的Transformer架构的自回归语言模型。该模型使用FP4量化技术,在保持性能的同时显著减少内存占用和计算需求,适用于AI智能体系统、聊天机器人、RAG系统等应用场景。
Tailpipe MCP服务器是一个AI驱动的日志分析工具,通过模型上下文协议连接AI助手与云端/SaaS日志数据,支持自然语言查询和分析各类云服务日志,提供安全事件调查、成本性能洞察等功能。
Meta Ads MCP是一个基于Model Context Protocol的服务器,用于通过标准化接口与Meta广告API交互,使AI模型能够访问、分析和管理Meta广告活动,包括获取性能数据、可视化广告创意和提供战略建议。
MCP互联网速度测试是一个实验性项目,通过标准化的MCP协议为AI模型提供网络性能测试工具,包括下载/上传速度、延迟和抖动测量等功能。
一个提供Google PageSpeed Insights分析的MCP服务器,帮助AI模型通过标准化接口分析网页性能。
交互式反馈MCP项目,通过集成模型上下文协议(MCP)在关键点提供智能交互反馈,优化AI助手的用户交互流程,减少资源消耗并提升性能。
PageSpeed MCP服务器是一个连接AI助手与谷歌PageSpeed Insights API的桥梁,为AI模型提供网站性能分析功能,包括核心性能指标、SEO评估、可访问性审计和资源优化建议。
Ultimate MCP Server是一个基于模型上下文协议(MCP)的AI代理操作系统,提供数十种强大工具能力,包括认知增强、工具使用和智能编排等功能。该系统通过标准化MCP工具暴露功能,使高级AI代理能访问丰富的工具生态系统和专业化服务,同时优化成本、性能和质量。
OpenRouter MCP服务器提供与OpenRouter.ai模型生态系统的无缝集成,支持多种AI模型访问和性能优化。
CryptoWeather AI比特币信号是一个通过模型上下文协议(MCP)提供实时比特币价格预测的AI服务,包含交易建议、性能指标和信号分析功能,每小时更新一次数据。
Yandex Tracker MCP服务器是一个为AI助手提供与Yandex Tracker API交互的模型上下文协议服务,支持队列管理、用户管理、问题操作和高级搜索功能,提供安全认证访问和性能缓存。
一个基于Model Context Protocol的服务,提供Google PageSpeed Insights网页性能分析功能,使AI模型能通过标准化接口评估网页加载表现。
Ultimate MCP Server是一个基于模型上下文协议(MCP)的AI代理操作系统,提供丰富的工具集和智能任务委派功能,支持多LLM供应商集成,优化成本与性能,实现复杂工作流自动化。
LLM Gateway是一个基于MCP协议的服务器,支持高级AI代理(如Claude 3.7)将任务智能委托给成本更低的LLM模型(如Gemini Flash),实现成本优化和性能平衡。
一个基于本地Ollama模型的AI代码审计服务器,通过Model Context Protocol (MCP)集成,提供多维度代码分析,包括安全性、完整性、性能、质量、架构、测试和文档检查。
LRC-MCP Server是一个为LoadRunner Cloud提供模型上下文服务的项目,支持通过程序化方式访问LRC资源与测试数据,便于构建性能工程工作流、仪表盘及AI集成。