Meta计划在2030年前向康宁支付60亿美元,采购高性能光纤电缆,以支持其AI数据中心建设。康宁正扩大产能,打造全球最大光纤工厂,以满足Meta及英伟达、谷歌等科技巨头日益增长的需求。
OpenAI发布提案征集,旨在提升美国本土AI硬件生产能力,以应对全球AI竞争。公司强调AI生态不仅依赖高性能芯片,还需复杂物理硬件支撑。为此,OpenAI正招募美国本土制造商与供应商,提供从核心计算硬件到数据中心冷却系统等关键基础设施组件。
雷蛇在2026年CES上推出Forge AI工作站,进军AI开发者硬件市场。该产品线提供塔式和机架式两种形态,专为AI训练与推理优化,旨在为开发者、研究人员及中小企业提供高性能、灵活的本地大模型基础设施解决方案。
在2026年CES展上,英伟达发布下一代AI平台“鲁宾”,核心为全新超级芯片Vera Rubin。该平台旨在为智能体AI和大规模推理模型提供更强算力,芯片采用创新集成设计,提升高性能计算效率。
高性能邮件验证服务,99.9%准确率,减少退信,保护发件人声誉。
一个API连接所有顶尖AI模型,高性能且性价比高,支持多类型生成。
Devstral 2开源编码模型及Mistral Vibe CLI,高效解决软件工程任务
Didoo AI将链接转化为高性能Meta广告,精准定位买家并持续优化。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Anthropic
$7
$35
200
Google
$2.1
$17.5
$21
$105
Alibaba
$4
$16
$1
$10
256
Baidu
-
128
$1.6
$0.4
$1.75
$14
400
$15
Huawei
32
Chatglm
Tencent
$0.8
$2
$0.3
tencent
混元视频-1.5是一款轻量级高性能视频生成模型,仅用83亿参数就能提供顶级的视频质量,显著降低了使用门槛。它能在消费级GPU上流畅运行,支持文本到视频和图像到视频生成,让每个开发者和创作者都能轻松使用。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基于百度ERNIE-4.5架构的多模态大语言模型,通过AWQ量化技术实现8位精度,在保持高性能的同时大幅降低内存需求。该模型在视觉推理、STEM问题解决、图像分析等方面表现出色,具备强大的多模态理解和推理能力。
TheStageAI
TheWhisper-Large-V3-Turbo 是 OpenAI Whisper Large V3 模型的高性能微调版本,由 TheStage AI 针对多平台实时、低延迟和低功耗语音转文本推理进行优化。支持流式转录、单词时间戳和可扩展性能,适用于实时字幕、会议和设备端语音界面等场景。
TheWhisper-Large-V3是OpenAI Whisper Large V3模型的高性能微调版本,由TheStage AI针对多平台(NVIDIA GPU和Apple Silicon)的实时、低延迟和低功耗语音转文本推理进行了优化。
richardyoung
这是一个高性能的4位量化版本的Kimi K2 Instruct模型,专为使用MLX框架在Apple Silicon(M1/M2/M3/M4)Mac上运行而优化。该模型拥有6710亿参数,支持128K上下文窗口,在质量和效率之间实现了出色的平衡,是大多数实际部署的理想选择。
Daemontatox
Zirel-3是基于GLM-4.5-Air-REAP-82B-A12B的特定微调模型,采用REAP(路由加权专家激活剪枝)技术压缩的820亿参数混合专家模型,在保持高性能的同时显著减少模型体积。
lightx2v
基于LoRA的4步推理高性能视频生成模型,从Wan2.2蒸馏模型中提取的LoRA权重,具备灵活部署、存储高效和出色生成质量的特点
bullpoint
GLM-4.6-AWQ是对智谱AI的GLM-4.6(357B MoE)进行高性能AWQ量化的模型,专为vLLM推理进行了优化,能有效提升生产部署的吞吐量。该模型采用4位量化技术,在保持高精度的同时显著减少显存占用。
codeintegrity-ai
ModernBERT PromptGuard是一个高性能二分类器,专门用于检测大语言模型应用中的恶意提示,包括提示注入和越狱攻击。
VLA-Adapter
VLA-Adapter是一种在Libero-Spatial上训练的微型视觉语言动作模型,采用Prismatic-VLM架构,仅使用Qwen2.5-0.5B作为大语言模型主干。该模型在机器人基准测试中超越了参数规模更大的开源VLA模型,实现了高性能的视觉-语言-动作理解与执行。
kikekewl
MLX是基于Qwen/Qwen3-Next-80B-A3B-Thinking基础模型构建的文本生成库,专注于高效推理和文本生成任务。该模型采用先进的架构设计,支持大规模参数下的高性能文本处理。
基于MLX库优化的文本生成模型,采用Qwen/Qwen3-Next-80B-A3B-Instruct基础模型,使用bf16数据类型进行优化,专注于高效文本生成任务,为相关领域开发提供高性能支持。
cpatonn
Qwen3-Next-80B-A3B-Instruct-AWQ-4bit是基于Qwen3-Next-80B-A3B-Instruct模型进行4位AWQ量化的高效版本。该模型采用混合注意力机制和高稀疏专家混合架构,支持长达262K tokens的上下文长度,在保持高性能的同时大幅降低计算资源需求。
dinhquangson
MonkeyOCR-pro-1.2B Vision GGUF 是一款高性能的视觉语言模型,专注于光学字符识别(OCR)和文档分析。该模型采用GGUF格式,支持多语言处理,具备出色的OCR精度和推理速度,适用于各种文档处理场景。
unsloth
NVIDIA Nemotron Nano 9B v2 是 NVIDIA 开发的一款高性能大语言模型,采用 Mamba2-Transformer 混合架构,支持多语言推理和聊天任务,在多个基准测试中表现优异,特别支持运行时'思考'预算控制功能。
inclusionAI
Ring-mini-2.0是基于Ling 2.0架构深度优化的高性能推理型MoE模型,仅有160亿总参数和14亿激活参数,却实现了与100亿规模以下密集模型相当的综合推理能力。在逻辑推理、代码生成和数学任务方面表现出色,支持12.8万长上下文处理和每秒300+令牌的高速生成。
Kwai-Klear
Klear是由快手Kwai-Klear团队开发的稀疏混合专家(MoE)大语言模型,具备高性能和推理效率的特点。总参数460亿,激活参数仅25亿,在多个能力基准测试中表现出色,为实际应用提供了高效且强大的解决方案。
DevQuasar
本项目提供腾讯混元-MT-7B大语言模型的量化版本,通过模型压缩技术降低计算和存储需求,致力于让知识为每个人所用,使高性能AI模型更加普及和易用。
2imi9
GPT-OSS-20B-NVFP4 是 OpenAI GPT-OSS-20B 模型的量化版本,采用 NVIDIA 先进的 NVFP4 量化格式。该模型在保持显著内存效率提升的同时,相比 MXFP4 量化能提供更出色的准确率保留率,专为高性能推理场景设计。
brandonbeiler
这是OpenGVLab/InternVL3_5-8B的fp8动态(w8a8)量化版本,针对vLLM高性能推理进行了优化。采用FP8动态量化技术,在保持视觉理解能力的同时显著减少内存占用并提升推理速度。
Scrapling是一个自适应网页抓取库,能自动学习网站变化并重新定位元素,支持多种抓取方式和AI集成,提供高性能解析和开发者友好体验。
Solon是一个高效、开放、生态友好的Java企业级应用开发框架,支持全场景开发,具有高性能、低内存消耗、快速启动和小体积打包等特点,兼容Java8至Java24及GraalVM原生运行时。
hyper-mcp是一个基于WebAssembly插件的高性能MCP服务器,支持通过容器注册表分发插件,适用于多种AI应用场景。
XiYan MCP Server是一个基于XiYan-SQL的模型上下文协议服务器,支持通过自然语言查询数据库,提供多种LLM模型配置和数据库连接方式,适用于本地或远程部署。
ht-mcp是一个用Rust实现的高性能无头终端MCP服务器,支持多会话管理和Web界面预览。
MCpp Server是一个用C++编写的高性能Minecraft服务器,旨在提供快速、高效的游戏体验,同时保持与Java客户端的兼容性。
Universal Documentation MCP Server是一个高性能的MCP服务器,可将任何文档网站转化为AI可访问的知识库。支持GitBook、Vercel文档、Next.js站点等多种平台,具有即时启动、智能缓存和自动域名检测等特性。
Kubernetes MCP服务器是一个提供安全只读访问Kubernetes资源的工具,用于调试和检查集群状态。支持多集群切换、CRD资源和智能资源发现,强调安全性和高性能。
Nchan MCP Transport是一个高性能的WebSocket/SSE传输层和网关,专为Anthropic的MCP(模型上下文协议)设计,支持实时、可扩展的AI集成。
高性能批量代码理解MCP工具包,专为Java优化,提供全景上下文、结构映射和精准定位功能,帮助AI智能体高效探索大型代码库。
一个高性能的SQLite MCP服务器,采用创新的Codemode代码生成方法,使LLM通过生成Go代码执行数据库操作,相比传统工具调用显著提升效率和降低延迟。
一个用Go语言实现的高性能MCP服务器,为AI代理和应用程序提供通过自然语言查询访问Redfish API的能力,实现数据中心基础设施的智能管理和监控。
RuleGo-Server是一个基于RuleGo的轻量级、高性能、模块化的自动化工作流平台,支持可视化编排、热更新、AI支持及多租户,适用于iPaaS、API编排、IoT规则引擎等多种场景。
Vulcan File Ops是一个基于Model Context Protocol(MCP)的高性能文件操作服务器,可将桌面AI助手(如Claude Desktop、ChatGPT Desktop等)转变为强大的开发伙伴。它提供安全的文件读写、批量操作、文档处理、图像分析和Shell命令执行功能,具有企业级安全控制、动态目录注册和智能工具过滤特性,让用户完全控制本地文件系统访问。
Nuclei MCP服务器是一个基于Mark3 Labs MCP协议的高性能漏洞扫描服务实现
一个基于Rust的高性能MCP服务器,封装Factory.ai Droid CLI工具,为Claude Code等MCP客户端提供AI辅助编程能力,支持完整的Droid参数映射、会话管理、自定义模型和细粒度权限控制。
基于CCXT和MCP协议的高性能加密货币交易所集成服务器
基于MCP的高性能PDF转Markdown服务,支持本地文件和URL批量处理,保留文档结构并智能优化输出。
企业级高性能MCP服务器,支持Wasm和Rust,为LLM提供工具、资源和流程提示的集成平台。
Rust MCP SDK 是一个高性能、异步的工具包,用于构建 MCP(Model Context Protocol)服务器和客户端。它简化了开发流程,让开发者能专注于应用逻辑,同时提供强大的功能和一致性保障。