商汤科技发布开源SenseNova-SI系列模型,在空间智能领域实现突破。该模型在权威评测中超越GPT-5等国际顶尖闭源模型,弥补了当前大模型在空间理解与推理方面的不足,展现出卓越性能。
国内AI公司阶跃星辰发布Step-Audio-EditX模型,实现用自然语言指令编辑语音。用户只需输入文字要求,即可精准调整音色、情绪、节奏等,让语音编辑如修改文档般直观高效。30亿参数确保性能强大。
国产AI公司月之暗面开源思考型模型Kimi K2Thinking,在HLE基准测试中以44.9%得分超越GPT-5等国际闭源模型,同时训练成本仅460万美元,展现高性价比优势,推动AI成本革命。
科大讯飞发布星飞星火X1.5深度推理大模型,基于国产算力,采用MoE架构,总参数量达293亿,激活参数30亿。单台昇腾服务器即可部署,推理效率较X1提升100%,端到端性能达国际水平。
全球唯一全自动化、性能优化的网红市场平台
高性能 PDF 转 MS Office 转换库,支持多种格式。
高性能KVM VPS,30秒部署,香港及美西可用,功能丰富
提供高性能GPU出租服务,包括B200、H200、RTX4090、H100等型号。即时部署,价格透明。
openai
$7.92
Input tokens/M
$31.68
Output tokens/M
200k
Context Length
chatglm
$0.43
$1.01
131.1k
$108
$432
minimax
-
1M
google
$2.16
$18
128k
xai
$21.6
mistral
anthropic
baidu
$4
$16
deepseek
$3.6
$15.48
upstage
64k
65.5k
alibaba
32k
unsloth
aquif-3.5系列是2025年11月3日发布的巅峰之作,包含Plus和Max两个版本,提供先进的推理能力和前所未有的100万标记上下文窗口,在各自类别中实现了最先进的性能。
Qwen3-Coder-REAP-363B-A35B是通过REAP方法对Qwen3-Coder-480B-A35B-Instruct进行25%专家剪枝得到的稀疏混合专家模型,在保持接近原模型性能的同时显著降低了参数规模和内存需求,特别适用于资源受限的代码生成和智能编码场景。
noctrex
这是 aquif-3.5-Plus-30B-A3B 模型的 MXFP4_MOE 量化版本,通过量化技术显著降低了模型资源占用,同时保持了相近的性能表现,具有较高的工程实践价值。
慧慧Qwen3-VL-8B指令消融模型的量化版本,专门用于图像文本到文本的转换任务。该模型基于Qwen3-VL-8B架构,经过指令消融优化和量化处理,可在保持性能的同时降低计算资源需求。
这是一个基于Huihui-Qwen3-VL-4B-Instruct-abliterated模型的量化版本,专门用于图像文本到文本的转换任务,通过量化处理优化了模型性能,为多模态应用提供支持。
catalystsec
本项目对MiniMax-M2模型进行4位量化处理,使用DWQ(动态权重量化)方法,借助mlx-lm库达成。该模型是MiniMax-M2的轻量化版本,在保持较好性能的同时大幅减小模型体积。
anikifoss
本项目是对MiniMax-M2模型进行的高质量HQ4_K量化,专门针对文本生成任务优化,特别适用于对话场景。该量化版本未使用imatrix,保持了模型的性能表现。
本项目是对Qwen3-Coder-30B-A3B-Instruct模型进行MXFP4_MOE量化的成果,将上下文大小从256k扩展到1M,为代码生成和编程任务提供了更优化的模型版本,具有提升性能和节省资源的价值。
bartowski
这是英伟达Qwen3-Nemotron-32B-RLBFF大语言模型的GGUF量化版本,使用llama.cpp工具进行多种精度量化,提供从BF16到IQ2_XXS共20多种量化选项,适用于不同硬件配置和性能需求。
BAAI
Emu3.5是北京智源人工智能研究院开发的原生多模态模型,能够跨视觉和语言联合预测下一状态,实现连贯的世界建模和生成。通过端到端预训练和大规模强化学习后训练,在多模态任务中展现出卓越性能。
Minthy
这是一个基于RouWei-0.8的实验性预训练模型,采用16通道潜在空间架构,使用Flux自动编码器。该模型旨在以较低计算成本实现更精细的图像细节,同时保留原有模型的知识和性能。
本项目是基于Qwen3-VL-32B-Instruct模型的llama.cpp GGUF量化版本,提供多种量化类型以满足不同硬件和性能需求。使用特定数据集结合imatrix选项进行量化,保证量化质量,支持在线重新打包权重以提高ARM和AVX机器的性能。
moonshotai
Kimi Linear是一种高效混合线性注意力架构,在短上下文、长上下文和强化学习场景中均优于传统全注意力方法。它通过Kimi Delta Attention (KDA)机制优化注意力计算,显著提升性能和硬件效率,特别擅长处理长达100万令牌的长上下文任务。
alenphilip
这是一款专门用于Python代码审查的AI模型,基于Qwen2.5-7B-Instruct微调,能够识别安全漏洞、性能问题并提供代码质量改进建议。
woodBorjo
本模型是基于facebook/mask2former-swin-tiny-coco-instance在qubvel-hf/ade20k-mini数据集上进行微调的实例分割模型。该模型专门针对ADE20K-mini数据集中的场景理解任务进行了优化,在实例分割任务上表现出良好的性能。
DevQuasar
本项目是基于MiniMaxAI/MiniMax-M2模型的量化版本,致力于让知识为大众所用。提供了多个不同量化级别的模型版本,并展示了各版本的困惑度性能指标。
这是对internlm的JanusCoder-8B模型进行量化处理的版本,采用llama.cpp的imatrix量化技术,在保证性能的前提下显著减少模型的存储和计算资源需求,使模型能够在更多设备上高效运行。
这是Qwen3-Yoyo-V4-42B-A3B-Thinking-TOTAL-RECALL模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型基于42B参数的大语言模型架构,通过量化技术降低计算和存储需求,同时保持较好的性能表现。
ByteDance
Ouro-2.6B是一款拥有26亿参数的循环语言模型,通过迭代共享权重计算实现了卓越的参数效率,在仅用26亿参数的情况下达到了30-40亿标准Transformer模型的性能水平。
Ouro-1.4B是由字节跳动开发的具有14亿参数的循环语言模型,通过迭代共享权重计算实现了卓越的参数效率,仅用14亿参数就达到了30-40亿标准Transformer模型的性能水平。
MCP-PostgreSQL-Ops是一个专业的PostgreSQL数据库操作和监控MCP服务器,支持PostgreSQL 12-17版本,提供全面的数据库分析、性能监控和智能维护建议,通过自然语言查询实现数据库管理。
MCPBench是一个用于评估MCP服务器性能的框架,支持Web搜索和数据库查询两种任务的评估,兼容本地和远程服务器,主要评估准确性、延迟和令牌消耗。
MongoDB Lens是一个本地MCP服务器,通过自然语言与LLM交互实现对MongoDB数据库的全面操作,包括查询、聚合、性能优化等。
一个连接Adjust API的MCP服务器,支持查询报告、指标和性能数据
MCP pytest集成服务,提供测试会话记录、结果跟踪和性能分析功能
Meta Ads MCP是一个基于Model Context Protocol的服务器,用于通过标准化接口与Meta广告API交互,使AI模型能够访问、分析和管理Meta广告活动,包括获取性能数据、可视化广告创意和提供战略建议。
Umami Analytics MCP Server是一个增强Claude能力的模型上下文协议服务器,提供对Umami网站分析数据的访问,支持用户行为分析和网站性能跟踪。
该项目实现了一个MCP服务器和客户端,用于构建基于检索增强生成(RAG)的智能代理应用。服务器提供实体提取、查询优化和相关性检查等工具,客户端展示如何连接服务器并使用这些工具来增强RAG系统的性能。
Nano Agent是一个实验性的小型工程代理MCP服务器,支持多提供商LLM模型,用于测试和比较云端与本地LLM在性能、速度和成本方面的代理能力。项目包含多模型评估系统、嵌套代理架构和统一工具接口,支持OpenAI、Anthropic和Ollama等提供商。
Tailpipe MCP服务器是一个AI驱动的日志分析工具,通过模型上下文协议连接AI助手与云端/SaaS日志数据,支持自然语言查询和分析各类云服务日志,提供安全事件调查、成本性能洞察等功能。
英雄联盟模拟对战预测器,提供基于历史数据的召唤师分析和AI驱动的10阶段对战模拟,支持多语言和性能比较。
一个集成了Vibe Coding方法和知识图谱技术的MCP服务器,使用Kuzu图数据库进行AI辅助软件开发,支持多语言代码分析和企业级安全性能
一个基于Playwright和Lighthouse的MCP服务器,用于分析网站性能,支持截图功能,可通过MCP协议与LLM集成。
Sentry MCP服务器是一个用于与Sentry交互的模型上下文协议服务器,提供工具来检索和分析错误数据、管理项目和监控应用性能。
一个基于Google Lighthouse的MCP服务,用于测量网页性能指标
Distri是一个基于Rust的可组合AI代理框架,支持通过MCP协议构建和组合智能代理能力,提供模块化设计和高效性能。
一个连接AI助手与HubSpot CRM数据的MCP服务器,提供联系人、公司和互动数据访问,内置向量存储和缓存机制优化性能。
一个基于AI的NPM包分析MCP服务器,提供实时安全扫描、依赖分析、性能评估等功能,集成Claude和Anthropic AI技术,优化npm生态管理。
一个基于Playwright和Lighthouse的MCP服务器,用于网站性能分析与截图捕获。
一个提供Google PageSpeed Insights分析的MCP服务器,帮助AI模型通过标准化接口分析网页性能。