アリババはAI分野の需要を満たすため、数万個のAMD MI308 AIチップを購入予定。MI308は中国市場向けの規制適合チップで、米国の輸出許可を取得しており、NVIDIA H20と同様の適合製品。これはアリババのAI技術への重視を示すが、MI308はH20と比べてコストパフォーマンスと安全性に違いがある。....
AMDとHPEは、オープンで拡張可能なAIインフラ構築に向け連携を強化。AMDのAIプラットフォーム「Helios」をHPEが早期採用し、Juniperネットワークスイッチを組み合わせることで、高帯域・低遅延のAIクラスター接続を実現し、次世代AIインフラの推進を加速。....
AMD、IBM、Zyphraが共同で、全AMDハードウェアで学習した初のMoEモデル「ZAYA1」を発表。14兆トークンを事前学習し、Qwen3シリーズに匹敵する性能で数学推論は専門版に近い。128ノード×8枚のMI300X(計1024GPU)クラスターを使用し、ピーク演算性能は750PFLOPs。カリキュラム学習で一般Webから専門領域へ段階的に学習。新たな畳み込み圧縮アテンション機構を採用。....
AMDは2025年11月11日、AI推論分野の強化を目的にAI推論スタートアップMK1を買収。MK1のコア技術「Flywheel」はAMDのInstinct GPUと深く統合され、1日あたり兆単位のトークンを処理可能。買収後、MK1チームはAMD AI部門に編入され、市場地位の強化を図る。....
Instellaは、AMDが開発した高性能なオープンソース言語モデルであり、オープンソース言語モデルの発展を加速するために設計されています。
Framework Desktopは、AMD Ryzen? AI Max 300シリーズプロセッサに対応した、ミニサイズの高性能デスクトップPCです。強力なAIとゲーム性能を備えています。
4096個のAMD GPU上で動作する大規模深層循環言語モデルの事前学習コードです。
AMDのオープンソースプラットフォーム。AI、ML、HPCワークロードのパフォーマンスを向上させます。
amd
Llama-3.1-8B-onnx-ryzenai-npuは、AMDがMetaのLlama-3.1-8Bモデルをベースに開発した最適化バージョンで、AMD Ryzen AI NPU向けに最適化されたデプロイが行われています。このモデルは、Quark量子化、OGAモデルビルダー、およびNPU専用の後処理技術を通じて、高品質なテキスト生成能力を維持しながら、AMDハードウェア上での推論効率を大幅に向上させています。
このプロジェクトは、AMDの量子化ツールを使用してQwen3-4Bモデルを量子化処理したテキスト生成モデルで、チャットなどのシーンに使用できます。このモデルはAMD Quark量子化ツールを使用して準備され、必要な後処理が行われています。
PARDは高性能な推測デコード方法で、低コストで自己回帰ドラフトモデルを並列ドラフトモデルに変換でき、大規模言語モデルの推論速度を大幅に向上させ、展開の複雑さと適合コストを削減します。
FastFlowLM
これはMeta AIのLLaMA 3.1ベースモデルをベースにした派生モデルで、AMD Ryzen™ AI NPU上のFastFlowLMに特化して最適化されており、XDNA2アーキテクチャのみに対応しています。モデルはMetaが公開したコアアーキテクチャと重みを保持しており、特定のアプリケーションに合わせて微調整、量子化、または適合化されている可能性があります。
これはMeta AIがリリースしたLLaMA 3.2 1B Instructモデルの最適化バリエーションで、AMD Ryzen™ AI NPU(XDNA2アーキテクチャ)上のFastFlowLMに特化して最適化されています。モデルは元のアーキテクチャと重みを保持し、量子化、低レベルチューニングなどの技術を通じてNPU上での実行効率を向上させています。
Motif-Technologies
Motif 2.6Bは26億のパラメータを持つ言語モデルで、AMD Instinct™ MI250 GPU上で最初から訓練され、人間の価値観に沿った、有用で信頼できるAIを構築することを目的としています。
Nitro-Tは、効率的なトレーニングに特化した一連のテキストから画像への拡散モデルで、画像生成ベンチマークテストで競争力があり、トレーニング時間が極めて短い。
Instella-LongはAMDによって開発された、128Kの文脈長をサポートする3Bパラメータのオープンソース言語モデルで、長文脈ベンチマークテストで優れた性能を発揮します。
PARD is a high-performance speculative decoding method that can convert autoregressive draft models into parallel draft models at low cost, significantly accelerating the inference of large language models.
tngtech
OLMo-2-0325-32B-Instructモデルを基に、Open R1数学データセットを使用しAMD MI300X GPU上で微調整され、数学推論能力の向上に特化
InstellaはAMDがInstinct™ MI300X GPUを基にゼロからトレーニングした30億パラメータの完全オープンソース言語モデルシリーズで、同等規模のオープンソースモデルを上回る性能を持ち、Llama-3.2-3BやGemma-2-2Bなどの先進的なオープンウェイトモデルと競争します。
AMD Instinct MI300X GPUでトレーニングされた30億パラメータの完全オープン言語モデルファミリーで、同規模のオープンモデルを性能で凌駕
InstellaはAMDが開発した30億パラメータのオープンソース言語モデルシリーズで、AMD Instinct™ MI300X GPUでトレーニングされ、同規模の完全オープンソースモデルを性能で凌駕しています。
stabilityai
AMD Ryzen™ AI最適化版SDXL-Turbo、世界初のBlock FP16フォーマット採用テキスト生成画像モデル、AMD XDNA™ 2 NPU専用設計
AMD Nitro Diffusionは、AMD Instinct™ GPU向けに主流の拡散モデルから蒸留された効率的なテキスト生成画像モデルのシリーズです。PixArt-Sigma Nitroは、Transformerベースの高解像度単段推論モデルです。
AMD Instinct™ GPUを基盤とした主流拡散モデルから蒸留された効率的なテキスト画像生成モデルシリーズ
AMD-OLMoは、AMDによってAMD Instinct™ MI250 GPU上でゼロからトレーニングされた10億パラメータの言語モデルシリーズで、事前学習モデル、監督微調整モデル、および直接的な嗜好最適化(DPO)に基づくアライメントモデルが含まれます。このシリーズのモデルはOLMoアーキテクチャに基づいており、Dolmaデータセットで事前学習され、複数の指令データセットで微調整されています。
AMD-OLMoは、AMDがAMD Instinct™ MI250 GPU上でゼロからトレーニングした10億パラメータの一連の言語モデルです。
Phi-3.5-mini-instructはマイクロソフトが開発した効率的な小型言語モデルで、先進的な量子化技術を用いて最適化され、NPUデプロイ向けに設計されています。このモデルはテキスト生成タスクで優れた性能を発揮し、自然言語処理とコード関連のシーンをサポートします。
本プロジェクトはMeta-Llama-3-8Bモデルに基づき、Quark量子化技術を採用し、OGAモデルビルダーを組み合わせ、後処理を行ってNPUデプロイに適合させ、テキスト生成タスクに使用できます。このモデルはAMD NPUハードウェア用に最適化されており、効率的な推論デプロイをサポートします。
KognitiveKompanionは、KDEなどのデスクトップ環境をサポートする、現代的な多機能AIインターフェースです。OpenAI、Ollama、AMD Ryzen AIのハードウェアアクセラレーションとのシームレスな統合を提供します。
KognitiveKompanionは、KDEなどの複数のデスクトップ環境をサポートし、OpenAI、Ollama、およびAMD Ryzen AIのハードウェアアクセラレーションなどの複数のバックエンドを統合した、高度なUI、コンテキスト機能、および会話管理を提供する、現代的な多機能AIインターフェースです。
マルチアーキテクチャ(arm64とamd64)をサポートするDockerイメージを作成し、SSEトランスポートプロトコルをサポートするMCP Everythingサーバーをデプロイします。