Cerebras完成10億美元H輪融資,估值飆升至230億美元。本輪由Tiger Global領投,AMD戰略參與。距離上輪81億美元估值僅四個月,增長迅猛。
AI網絡初創公司Upscale AI獲2億美元A輪融資,由Tiger Global等領投,旨在挑戰英偉達在AI系統交換機領域的地位。公司獲英特爾、AMD等支持,核心產品爲專爲AI設計的定製芯片“SkyHammer”,致力於優化GPU間的網絡連接,提升AI硬件性能。
在2026年CES展上,AMD推出多款AI PC芯片,推動AI應用從雲端擴展至筆記本電腦和移動設備。新品包括面向輕薄筆記本和小型臺式機的Ryzen AI400系列、Ryzen AI Max +處理器,以及Ryzen AI Pro400系列。同時,AMD還發布了首個AI開發平臺AI Halo,旨在加速AI技術在個人計算設備上的普及。
在CES 2026上,惠普推出全球首款鍵盤式AI PC Eliteboard G1a,將完整x86系統集成於僅12毫米厚的鍵盤機身內,顛覆傳統桌面電腦形態。該設備搭載AMD銳龍AI 300系列處理器,支持高達64GB內存和2TB存儲,提供強大計算性能。
Instella 是由 AMD 開發的高性能開源語言模型,專為加速開源語言模型的發展而設計。
Framework Desktop 是一款迷你型高性能桌面電腦,支持 AMD Ryzen™ AI Max 300 系列處理器,具備強大的 AI 和遊戲性能。
大規模深度循環語言模型的預訓練代碼,支持在4096個AMD GPU上運行。
AMD開源平臺,提升AI、ML和HPC工作負載性能
amd
Llama-3.1-8B-onnx-ryzenai-npu是由AMD基於Meta的Llama-3.1-8B模型開發的優化版本,專門針對AMD Ryzen AI NPU進行優化部署。該模型通過Quark量化、OGA模型構建器和NPU專用後處理技術,在保持高質量文本生成能力的同時,顯著提升了在AMD硬件上的推理效率。
本項目是基於AMD的量化工具對Qwen3-4B模型進行量化處理得到的文本生成模型,可用於聊天等場景。該模型使用AMD Quark量化工具進行準備,並進行了必要的後處理。
PARD是一種高性能的推測解碼方法,能夠以低成本將自迴歸草稿模型轉換為並行草稿模型,顯著提升大語言模型的推理速度,降低部署複雜度和適配成本。
FastFlowLM
這是基於Meta AI的LLaMA 3.1基礎模型的衍生模型,專門針對AMD Ryzen™ AI NPU上的FastFlowLM進行了優化,僅適用於XDNA2架構。模型保留了Meta發佈的核心架構和權重,可能針對特定應用進行了微調、量化或適配。
這是Meta AI發佈的LLaMA 3.2 1B Instruct模型的優化變體,專門針對AMD Ryzen™ AI NPU(XDNA2架構)上的FastFlowLM進行優化。模型保留了原始架構和權重,通過量化、底層調優等技術提升在NPU上的運行效率。
Motif-Technologies
Motif 2.6B是一個擁有26億參數的語言模型,在AMD Instinct™ MI250 GPU上從頭開始訓練,旨在構建符合人類價值觀、有用且可靠的AI。
Nitro-T 是一系列專注於高效訓練的文本到圖像擴散模型,在圖像生成基準測試中具有競爭力,訓練時間極短。
Instella-Long是由AMD開發的支持128K上下文長度的3B參數開源語言模型,在長上下文基準測試中表現優異。
PARD是一種高性能的推測解碼方法,能夠以低成本將自迴歸草稿模型轉換為並行草稿模型,顯著加速大語言模型推理。
tngtech
基於OLMo-2-0325-32B-Instruct模型,使用Open R1數學數據集在AMD MI300X GPU上微調,專注提升數學推理能力
Instella是AMD基於Instinct™ MI300X GPU從頭訓練的30億參數完全開源語言模型系列,性能超越同等規模的開源模型,並與Llama-3.2-3B、Gemma-2-2B等先進開放權重模型競爭。
AMD基於Instinct MI300X GPU訓練的30億參數全開放語言模型家族,性能超越同規模開放模型
Instella是由AMD開發的30億參數開源語言模型系列,基於AMD Instinct™ MI300X GPU訓練,性能超越同規模全開源模型。
stabilityai
AMD Ryzen™ AI優化版SDXL-Turbo,全球首個採用Block FP16格式的文本生成圖像模型,專為AMD XDNA™ 2 NPU設計
AMD Nitro Diffusion 是一系列高效的文本生成圖像模型,基於 AMD Instinct™ GPU 從主流擴散模型蒸餾而來。PixArt-Sigma Nitro 是基於 Transformer 的高分辨率單步推理模型。
基於AMD Instinct™ GPU從主流擴散模型蒸餾而成的高效文生圖模型系列
AMD-OLMo是由AMD在AMD Instinct™ MI250 GPU上從頭開始訓練的10億參數語言模型系列,包括預訓練模型、監督微調模型和基於直接偏好優化(DPO)的對齊模型。該系列模型基於OLMo架構,在Dolma數據集上進行預訓練,並在多個指令數據集上進行微調。
AMD-OLMo 是由 AMD 在 AMD Instinct™ MI250 GPU 上從頭開始訓練的一系列 10 億參數語言模型。
Phi-3.5-mini-instruct是微軟開發的高效小型語言模型,採用先進的量化技術優化,專為NPU部署設計。該模型在文本生成任務中表現出色,支持自然語言處理和代碼相關場景。
本項目基於Meta-Llama-3-8B模型,採用Quark量化技術,結合OGA模型構建器,並進行後處理以適配NPU部署,可用於文本生成任務。該模型專為AMD NPU硬件優化,支持高效的推理部署。
創建支持多架構(arm64和amd64)的Docker鏡像,用於部署MCP Everything服務器,支持SSE傳輸協議。
KognitiveKompanion是一個現代多功能的AI交互界面,支持KDE等多種桌面環境,集成OpenAI、Ollama及AMD Ryzen AI硬件加速等多種後端,提供高級UI、上下文功能和對話管理。
KognitiveKompanion是一個現代多功能的AI交互界面,支持KDE等桌面環境,提供與OpenAI、Ollama及AMD Ryzen AI硬件加速的無縫集成。