Nvidia近期收购开源工作负载管理系统Slurm的主要开发者SchedMD,并推出新一代开放AI模型Nemotron 3系列。此举旨在推动开源技术发展,支持高性能计算和人工智能创新。Slurm自2002年推出以来,已成为高性能计算和AI领域的重要工具。
英伟达加速构建AI生态,本周宣布收购高性能计算调度系统Slurm开发商SchedMD,并发布开源大模型家族Nemotron 3,全面押注AI智能体与物理智能。Slurm作为全球主流超算调度系统,将强化英伟达基础设施层实力。
在2025世界大会上,百度执行副总裁沈抖发布新一代昆仑芯片M100、M300及天池256、512超节点,并公布未来五年产品战略:每年推新品,强化高性能计算云基础设施,助力企业客户。
蚂蚁百灵团队开源高性能思考模型Ring-flash-2.0,在多个高难度基准测试中表现优异,具备强大计算能力和资源效率。该模型为开发者提供先进AI工具,助力技术应用创新。
专为AI智能体打造的云平台,可自动执行AI生成代码和智能工作负载
提供高性能GPU出租服务,包括B200、H200、RTX4090、H100等型号。即时部署,价格透明。
专注于 GPU 算力云服务,提供高效算力解决方案。
专为 AI 设计的 GPU 云平台,提供高性能基础设施和全天候支持。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
$7.7
$30.8
200
Anthropic
$7
$35
Google
$2.1
$17.5
$21
$105
Alibaba
$4
$16
$1
$10
256
Baidu
-
128
Tencent
32
$1.6
$0.4
$0.75
$1.75
$14
400
$15
Huawei
Chatglm
$0.8
$2
cpatonn
Qwen3-Next-80B-A3B-Instruct-AWQ-4bit是基于Qwen3-Next-80B-A3B-Instruct模型进行4位AWQ量化的高效版本。该模型采用混合注意力机制和高稀疏专家混合架构,支持长达262K tokens的上下文长度,在保持高性能的同时大幅降低计算资源需求。
DevQuasar
本项目提供腾讯混元-MT-7B大语言模型的量化版本,通过模型压缩技术降低计算和存储需求,致力于让知识为每个人所用,使高性能AI模型更加普及和易用。
CohereLabs
Cohere Labs Command A Vision是一个拥有1120亿参数的企业级视觉语言模型,专为图像理解任务优化,在保持高性能的同时具有较低的计算需求。该模型支持多语言输入和输出,能够处理图像和文本的多模态输入。
QuantTrio
基于Qwen3技术的量化修复大语言模型,专为高效代码生成和编程任务设计。该模型采用AWQ量化技术,在保持高性能的同时显著降低计算资源需求,支持多GPU环境下的快速部署和推理。
mlx-community
该模型是基于Qwen3-235B-A22B-Thinking-2507转换的MLX格式版本,采用3-5位混合量化技术,在保持高性能的同时显著减少模型大小和计算需求,适用于苹果芯片设备的高效推理。
ubergarm
Qwen3-235B-A22B 是一个2350亿参数的大型语言模型,经过ik_llama.cpp分支的先进非线性量化处理,适用于高性能计算环境。
nvidia
NVIDIA Llama 3.1 70B Instruct FP8 是 Meta Llama 3.1 70B Instruct 模型的量化版本,采用优化的 Transformer 架构,是一个自回归语言模型。该模型通过 FP8 量化技术,在保持高性能的同时显著减少了存储和计算资源需求。
cl-nagoya
Ruri-Large 是一个专注于日语文本相似度计算的高性能嵌入模型,基于 transformer 架构,支持长文本处理(最大长度8192)。
hpcgroup
HPC-Coder-v2-6.7b是基于高性能计算领域指令数据集微调的大语言模型,专注于并行计算、性能优化、加速器移植等典型HPC主题。
KnutJaegersberg
这是一个通过llama.cpp中新颖的quip#方法量化为2位的大语言模型集合,包含多个高性能模型,如Senku-70b、Nous-Hermes2-70b、Miquliz-120b-v2.0等。这些模型在保持高性能的同时大幅减少了存储和计算需求。
khoa-klaytn
bge-base-en-v1.5是由BAAI开发的高性能英文句子嵌入模型,在特征提取、句子相似度计算等自然语言处理任务中表现出色。该模型在多个公开数据集上进行了全面测试,在分类、检索、聚类、重排序和语义文本相似度等任务中都展现了优秀的性能。
TheBloke
Phi 2 GPTQ 是 Microsoft Phi 2 模型的量化版本,采用 GPTQ 技术进行高效推理优化。该模型具有 27 亿参数,在保持高性能的同时显著减少计算资源需求,适用于各种自然语言处理任务。
binqiangliu
BGE Large English v1.5 是一个高性能的句子转换器模型,专注于句子特征提取和相似度计算。
BM-K
基于RoBERTa架构优化的韩语语义相似度计算模型,通过多任务学习实现高性能句子嵌入
OCI核心服务FastMCP服务器是一个专为Oracle云基础设施设计的生产级管理工具,提供全面的计算实例生命周期管理、数据库操作和网络信息查询功能,采用LLM优先的设计理念,通过OCI Python SDK实现高性能和可靠性。
MCPy是一个基于Python和Cython的高性能Minecraft服务器引擎,集成了科学计算库和高级优化技术,旨在提供卓越的性能和可扩展性。项目目前处于开发阶段,包含核心模块如服务器引擎、世界生成、网络处理、实体系统和数据持久化。