阿里巴巴计划采购数万颗AMD MI308 AI芯片,以满足其人工智能领域的需求。MI308是一款专为中国市场设计的合规芯片,已获美国出口许可,与英伟达H20同为合规产品。此举凸显阿里对AI技术的重视,但MI308在性价比和安全性方面与H20存在差异。
AMD与HPE深化合作,共同推动开放式、可扩展AI基础设施建设。合作以AMD专为大规模AI工作负载设计的“Helios”全栈平台为基础,HPE将成为首批采用该架构的系统提供商之一。同时,HPE将结合与博通合作开发的Juniper网络交换机,确保AI集群间的高带宽、低延迟连接,加速新一代AI基础设施发展。
AMD联合IBM与Zyphra推出全球首个全AMD硬件训练的MoE模型ZAYA1,预训练14万亿token,性能媲美Qwen3系列,数学推理接近专业版。采用128节点×8张MI300X显卡集群,算力达750PFLOPs。创新CCA注意力机制融合卷积与压缩嵌入,数据采用课程学习从通用到专业领域过渡。后续将发布优化版本。
AMD于2025年11月11日收购AI推理初创公司MK1,旨在强化其在AI推理领域的战略布局。MK1的核心技术“Flywheel”与AMD的Instinct GPU深度优化,日处理超万亿token,显著提升推理能力。收购后,MK1团队将并入AMD AI事业部,助力公司巩固市场地位。
Instella 是由 AMD 开发的高性能开源语言模型,专为加速开源语言模型的发展而设计。
Framework Desktop 是一款迷你型高性能桌面电脑,支持 AMD Ryzen™ AI Max 300 系列处理器,具备强大的 AI 和游戏性能。
大规模深度循环语言模型的预训练代码,支持在4096个AMD GPU上运行。
AMD开源平台,提升AI、ML和HPC工作负载性能
amd
Llama-3.1-8B-onnx-ryzenai-npu是由AMD基于Meta的Llama-3.1-8B模型开发的优化版本,专门针对AMD Ryzen AI NPU进行优化部署。该模型通过Quark量化、OGA模型构建器和NPU专用后处理技术,在保持高质量文本生成能力的同时,显著提升了在AMD硬件上的推理效率。
本模型是Meta发布的Llama 3.1系列中的80亿参数版本,经过AMD Quark量化工具处理和后处理,优化了在特定硬件上的部署与推理效率。它是一款多语言文本生成模型,支持多种语言,并在MMLU等基准测试中表现出色。
本项目是基于AMD的量化工具对Qwen3-4B模型进行量化处理得到的文本生成模型,可用于聊天等场景。该模型使用AMD Quark量化工具进行准备,并进行了必要的后处理。
PARD是一种高性能的推测解码方法,能够以低成本将自回归草稿模型转换为并行草稿模型,显著提升大语言模型的推理速度,降低部署复杂度和适配成本。
FastFlowLM
这是基于Meta AI的LLaMA 3.1基础模型的衍生模型,专门针对AMD Ryzen™ AI NPU上的FastFlowLM进行了优化,仅适用于XDNA2架构。模型保留了Meta发布的核心架构和权重,可能针对特定应用进行了微调、量化或适配。
这是Meta AI发布的LLaMA 3.2 1B Instruct模型的优化变体,专门针对AMD Ryzen™ AI NPU(XDNA2架构)上的FastFlowLM进行优化。模型保留了原始架构和权重,通过量化、底层调优等技术提升在NPU上的运行效率。
Motif-Technologies
Motif 2.6B是一个拥有26亿参数的语言模型,在AMD Instinct™ MI250 GPU上从头开始训练,旨在构建符合人类价值观、有用且可靠的AI。
Nitro-T 是一系列专注于高效训练的文本到图像扩散模型,在图像生成基准测试中具有竞争力,训练时间极短。
Instella-Long是由AMD开发的支持128K上下文长度的3B参数开源语言模型,在长上下文基准测试中表现优异。
PARD是一种高性能的推测解码方法,能够以低成本将自回归草稿模型转换为并行草稿模型,显著加速大语言模型推理。
tngtech
基于OLMo-2-0325-32B-Instruct模型,使用Open R1数学数据集在AMD MI300X GPU上微调,专注提升数学推理能力
Instella是AMD基于Instinct™ MI300X GPU从头训练的30亿参数完全开源语言模型系列,性能超越同等规模的开源模型,并与Llama-3.2-3B、Gemma-2-2B等先进开放权重模型竞争。
AMD基于Instinct MI300X GPU训练的30亿参数全开放语言模型家族,性能超越同规模开放模型
Instella是由AMD开发的30亿参数开源语言模型系列,基于AMD Instinct™ MI300X GPU训练,性能超越同规模全开源模型。
stabilityai
AMD Ryzen™ AI优化版SDXL-Turbo,全球首个采用Block FP16格式的文本生成图像模型,专为AMD XDNA™ 2 NPU设计
AMD Nitro Diffusion 是一系列高效的文本生成图像模型,基于 AMD Instinct™ GPU 从主流扩散模型蒸馏而来。PixArt-Sigma Nitro 是基于 Transformer 的高分辨率单步推理模型。
基于AMD Instinct™ GPU从主流扩散模型蒸馏而成的高效文生图模型系列
AMD-OLMo是由AMD在AMD Instinct™ MI250 GPU上从头开始训练的10亿参数语言模型系列,包括预训练模型、监督微调模型和基于直接偏好优化(DPO)的对齐模型。该系列模型基于OLMo架构,在Dolma数据集上进行预训练,并在多个指令数据集上进行微调。
AMD-OLMo 是由 AMD 在 AMD Instinct™ MI250 GPU 上从头开始训练的一系列 10 亿参数语言模型。
Phi-3.5-mini-instruct是微软开发的高效小型语言模型,采用先进的量化技术优化,专为NPU部署设计。该模型在文本生成任务中表现出色,支持自然语言处理和代码相关场景。
创建支持多架构(arm64和amd64)的Docker镜像,用于部署MCP Everything服务器,支持SSE传输协议。
KognitiveKompanion是一个现代多功能的AI交互界面,支持KDE等多种桌面环境,集成OpenAI、Ollama及AMD Ryzen AI硬件加速等多种后端,提供高级UI、上下文功能和对话管理。
KognitiveKompanion是一个现代多功能的AI交互界面,支持KDE等桌面环境,提供与OpenAI、Ollama及AMD Ryzen AI硬件加速的无缝集成。