印度支付巨头Paytm与美国硬件公司Groq合作,将利用GroqCloud云端服务提升AI模型性能,优化交易处理、风险评估、欺诈检测和消费者互动。GroqCloud基于自主研发的语言处理单元,专注于AI推理,旨在增强Paytm平台的智能化水平。
MiniMax M2模型采用全注意力机制,放弃线性或稀疏注意力技术。开发团队认为,尽管后者能节省计算资源,但全注意力在工业应用中更高效,能提升模型性能。这一决策旨在优化实际部署效果,推动AI技术发展。
Pinterest采用微调开源大模型,在视觉AI任务中实现与顶级闭源模型相当性能,成本降低一个数量级。这一高性价比策略缓解广告收入压力,为电商和内容推荐行业提供降本增效新范式。
Anthropic推出基于MCP协议的"代码执行模式",通过优化AI Agent调用外部工具的方式,解决了传统方法在处理海量工具时出现的性能瓶颈问题。该创新避免了将所有工具定义和中间结果直接载入模型上下文导致的效率下降,显著提升了AI Agent在多工具协作场景中的运行效能。
Snowglobe帮助AI团队在规模上测试LLM应用。在推出之前模拟真实对话,发现风险并提高模型性能。
Relyable 让您快速部署高性能 AI 电话代理。
本地AI与云端性能相匹配,适用于日常任务。离线工作,保护数据隐私而不降低质量。
GPT 5是下一代AI模型,提供卓越的编码、数学和推理性能。
chatglm
$0.43
Input tokens/M
$1.01
Output tokens/M
131.1k
Context Length
minimax
-
1M
xai
$21.6
$108
mistral
128k
google
$2.16
$18
anthropic
200k
deepseek
$3.6
$15.48
upstage
64k
65.5k
alibaba
32k
aws
$0.5
reka-ai
4.1k
ai21-labs
$3.53
$7.99
260k
65.4k
alenphilip
这是一款专门用于Python代码审查的AI模型,基于Qwen2.5-7B-Instruct微调,能够识别安全漏洞、性能问题并提供代码质量改进建议。
pnnbao-ump
VieNeu-TTS是首个可在个人设备上运行的越南语文本转语音模型,具备即时语音克隆能力。基于NeuTTS Air微调,能够生成自然逼真的越南语语音,在CPU上具备实时性能。
TheStageAI
TheWhisper-Large-V3-Turbo 是 OpenAI Whisper Large V3 模型的高性能微调版本,由 TheStage AI 针对多平台实时、低延迟和低功耗语音转文本推理进行优化。支持流式转录、单词时间戳和可扩展性能,适用于实时字幕、会议和设备端语音界面等场景。
noctrex
这是慧慧AI模型Huihui-MoE-60B-A3B-abliterated的MXFP4_MOE量化版本,为文本生成提供支持。该量化版本基于特定的基础模型进行处理,能在一定程度上优化模型的性能和使用体验。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
GLM-4.6是智谱AI推出的新一代文本生成模型,相比GLM-4.5在多个方面有显著改进,包括更长的上下文窗口、更优的编码性能和更强的推理能力。该模型在多个公开基准测试中表现出色,与国内外领先模型相比具有竞争优势。
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
zai-org
GLM-4.6是智谱AI推出的新一代文本生成模型,相比GLM-4.5在上下文处理、编码性能、推理能力等方面实现显著提升,支持200K上下文长度,具备更强的智能体能力和精致的写作能力。
GLM-4.6-FP8是智谱AI推出的新一代文本生成模型,相比GLM-4.5在多个关键方面有显著改进。该模型具有更长的上下文窗口、卓越的编码性能、高级推理能力和更强大的智能体功能,能够处理更复杂的任务。
Salesforce
CoDA是Salesforce AI Research研发的基于扩散模型的代码生成语言模型,具备双向上下文理解能力,专为强大的代码生成和补全任务而设计。该模型仅17亿参数,在保持低计算要求的同时实现了卓越的代码生成性能。
neuphonic
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、端侧文本转语音(TTS)语言模型。基于0.5B参数的大语言模型骨干构建,能为本地设备带来自然的语音、实时性能、内置安全性和说话人克隆功能。
NeuTTS Air是全球首个具有即时语音克隆功能的超逼真设备端文本转语音模型,基于0.5B参数的大语言模型骨干构建,能在本地设备上实现自然语音生成、实时性能和说话人克隆功能。
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、设备端文本转语音(TTS)语言模型。基于0.5B大语言模型骨干网络构建,能为本地设备带来自然的语音、实时性能、内置安全功能和说话人克隆能力。
anikifoss
这是对Moonshot AI的Kimi-K2-Instruct-0905模型的高质量量化版本,采用HQ4_K量化方法,专门优化了推理性能,支持75000上下文长度,适用于文本生成任务。
mradermacher
这是基于mookiezii/Discord-Hermes-3-8B模型进行量化处理后的版本,提供了多种量化格式的GGUF模型文件,适用于不同硬件环境和性能需求的对话AI应用场景。
TildeAI
TildeOpen LLM 是一个开源的基础语言模型,专门为服务代表性不足的北欧和东欧语言而设计。该模型由欧盟委员会资助,在LUMI超级计算机上训练,拥有300亿参数,解决了19种重点语言使用者在现有AI系统中面临的性能差距问题。
mlx-community
基于智谱AI GLM-4.5-Air模型转换的3位深度量化权重(Deep Weight Quantization)版本,专为MLX框架优化,在保持较高性能的同时显著减少模型大小和推理资源需求
cpatonn
GLM-4.5V-AWQ-4bit是基于智谱AI下一代旗舰文本基础模型构建的量化版本多模态模型,通过AWQ-4bit量化技术优化,在保持优异性能的同时显著降低计算资源需求。该模型在42个公开视觉语言基准测试中达到同规模模型的SOTA性能,具备强大的视觉推理能力。
lmstudio-community
GLM 4.5 Air是由Zai-Org开发的高效文本生成模型,经过bartowski使用llama.cpp进行GGUF量化处理,在保持性能的同时显著降低了硬件需求,适合在消费级硬件上运行。
Tailpipe MCP服务器是一个AI驱动的日志分析工具,通过模型上下文协议连接AI助手与云端/SaaS日志数据,支持自然语言查询和分析各类云服务日志,提供安全事件调查、成本性能洞察等功能。
英雄联盟模拟对战预测器,提供基于历史数据的召唤师分析和AI驱动的10阶段对战模拟,支持多语言和性能比较。
Meta Ads MCP是一个基于Model Context Protocol的服务器,用于通过标准化接口与Meta广告API交互,使AI模型能够访问、分析和管理Meta广告活动,包括获取性能数据、可视化广告创意和提供战略建议。
一个集成了Vibe Coding方法和知识图谱技术的MCP服务器,使用Kuzu图数据库进行AI辅助软件开发,支持多语言代码分析和企业级安全性能
一个基于AI的NPM包分析MCP服务器,提供实时安全扫描、依赖分析、性能评估等功能,集成Claude和Anthropic AI技术,优化npm生态管理。
Distri是一个基于Rust的可组合AI代理框架,支持通过MCP协议构建和组合智能代理能力,提供模块化设计和高效性能。
一个连接AI助手与HubSpot CRM数据的MCP服务器,提供联系人、公司和互动数据访问,内置向量存储和缓存机制优化性能。
MCP互联网速度测试是一个实验性项目,通过标准化的MCP协议为AI模型提供网络性能测试工具,包括下载/上传速度、延迟和抖动测量等功能。
MyMCP是一个基于Python的应用程序,支持通过Aider工具并行执行多个AI编码任务,提供并行/顺序执行选择、详细报告和性能比较功能。
该项目是基于UnityMCP的改进版本,专注于通过AI辅助开发VRChat世界,提供了增强的命令执行、编辑器集成、脚本测试和性能优化等功能,特别支持UdonSharp脚本生成。
该项目实现了一个针对Notion API的只读MCP服务器,专注于为AI助手提供高效的内容查询和检索功能。通过精简工具集、并行处理和自动内容探索等优化手段,显著提升了性能并解决了AI助手工具数量限制的问题。
一个提供Google PageSpeed Insights分析的MCP服务器,帮助AI模型通过标准化接口分析网页性能。
交互式反馈MCP项目,通过集成模型上下文协议(MCP)在关键点提供智能交互反馈,优化AI助手的用户交互流程,减少资源消耗并提升性能。
Mandoline MCP服务器是一个AI助手评估框架,通过Model Context Protocol为Claude和Cursor等AI助手提供自定义评估指标创建、批量评分和性能分析工具,帮助AI持续改进自身表现。
PageSpeed MCP服务器是一个连接AI助手与谷歌PageSpeed Insights API的桥梁,提供网站性能分析功能。
NPM Sentinel MCP是一个基于AI的NPM包分析服务器,提供实时安全扫描、依赖分析、性能评估等功能,支持与Claude和Anthropic AI集成,优化NPM生态管理。
Obsidian语义MCP服务器是一个AI优化的知识管理工具,通过5个语义操作整合20多种功能,提供智能工作流建议和上下文感知编辑功能。项目已升级为原生Obsidian插件,提供更优性能。
PageSpeed MCP服务器是一个连接AI助手与谷歌PageSpeed Insights API的桥梁,为AI模型提供网站性能分析功能,包括核心性能指标、SEO评估、可访问性审计和资源优化建议。
该项目是一个基于Model Context Protocol (MCP)的服务器,专门用于与Amazon Redshift数据库交互,通过AWS Data API安全连接,提供数据库结构查询、数据检索、性能分析等功能,支持与Claude、Cursor等AI工具集成。
Ultimate MCP Server是一个基于模型上下文协议(MCP)的AI代理操作系统,提供数十种强大工具能力,包括认知增强、工具使用和智能编排等功能。该系统通过标准化MCP工具暴露功能,使高级AI代理能访问丰富的工具生态系统和专业化服务,同时优化成本、性能和质量。