AMDの蘇姿丰CEOが決算会議でOpenAIとの協業を明らかにし、業界の注目を集めている。多数の顧客が同様の協業を求めており、1000億ドルの収益増加が見込まれ、AI市場におけるAMDの重要性が浮き彫りに。....
米エネルギー省とAMDが10億ドルでスーパーコンピュータ2台を共同開発。核エネルギー、がん治療、国家安全保障などの研究を支援し、実験データ処理能力を大幅向上させる。....
OpenAIとAMDが数十億ドル規模で提携。AMDは2026年下半期に1000MWの計算能力を導入し、OpenAIの生成AIモデル推論を支援。OpenAIはAMD株式1億6000万株の購入権を獲得し、重要な計算パートナーに。....
AMDとオラクルが重要な提携を発表。2026年Q3よりオラクルデータセンターに最大5万個のAMD最新AIチップ「Instinct MI450」を導入予定。新設計「Helios」ラックを採用し、AI市場での競争力強化を図る。....
Instellaは、AMDが開発した高性能なオープンソース言語モデルであり、オープンソース言語モデルの発展を加速するために設計されています。
Framework Desktopは、AMD Ryzen? AI Max 300シリーズプロセッサに対応した、ミニサイズの高性能デスクトップPCです。強力なAIとゲーム性能を備えています。
4096個のAMD GPU上で動作する大規模深層循環言語モデルの事前学習コードです。
AMDのオープンソースプラットフォーム。AI、ML、HPCワークロードのパフォーマンスを向上させます。
amd
PARDは高性能な推測デコード方法で、低コストで自己回帰ドラフトモデルを並列ドラフトモデルに変換でき、大規模言語モデルの推論速度を大幅に向上させ、展開の複雑さと適合コストを削減します。
Motif-Technologies
Motif 2.6Bは26億のパラメータを持つ言語モデルで、AMD Instinct™ MI250 GPU上で最初から訓練され、人間の価値観に沿った、有用で信頼できるAIを構築することを目的としています。
Nitro-Tは、効率的なトレーニングに特化した一連のテキストから画像への拡散モデルで、画像生成ベンチマークテストで競争力があり、トレーニング時間が極めて短い。
Instella-LongはAMDによって開発された、128Kの文脈長をサポートする3Bパラメータのオープンソース言語モデルで、長文脈ベンチマークテストで優れた性能を発揮します。
PARD is a high-performance speculative decoding method that can convert autoregressive draft models into parallel draft models at low cost, significantly accelerating the inference of large language models.
tngtech
OLMo-2-0325-32B-Instructモデルを基に、Open R1数学データセットを使用しAMD MI300X GPU上で微調整され、数学推論能力の向上に特化
AMD Instinct MI300X GPUでトレーニングされた30億パラメータの完全オープン言語モデルファミリーで、同規模のオープンモデルを性能で凌駕
InstellaはAMDが開発した30億パラメータのオープンソース言語モデルシリーズで、AMD Instinct™ MI300X GPUでトレーニングされ、同規模の完全オープンソースモデルを性能で凌駕しています。
stabilityai
AMD Ryzen™ AI最適化版SDXL-Turbo、世界初のBlock FP16フォーマット採用テキスト生成画像モデル、AMD XDNA™ 2 NPU専用設計
AMD Nitro Diffusionは、AMD Instinct™ GPU向けに主流の拡散モデルから蒸留された効率的なテキスト生成画像モデルのシリーズです。PixArt-Sigma Nitroは、Transformerベースの高解像度単段推論モデルです。
AMD Instinct™ GPUを基盤とした主流拡散モデルから蒸留された効率的なテキスト画像生成モデルシリーズ
AMD-OLMoは、AMDによってAMD Instinct™ MI250 GPU上でゼロからトレーニングされた10億パラメータの言語モデルシリーズで、事前学習モデル、監督微調整モデル、および直接的な嗜好最適化(DPO)に基づくアライメントモデルが含まれます。このシリーズのモデルはOLMoアーキテクチャに基づいており、Dolmaデータセットで事前学習され、複数の指令データセットで微調整されています。
AMD-OLMoは、AMDがAMD Instinct™ MI250 GPU上でゼロからトレーニングした10億パラメータの一連の言語モデルです。
Phi-3.5-mini-instructはマイクロソフトが開発した効率的な小型言語モデルで、先進的な量子化技術を用いて最適化され、NPUデプロイ向けに設計されています。このモデルはテキスト生成タスクで優れた性能を発揮し、自然言語処理とコード関連のシーンをサポートします。
atomic-canyon
fermi - bert - 1024は、原子力分野に特化して最適化されたBERT事前学習モデルです。このモデルは、ウィキペディア、Books3、および米国原子力規制委員会のADAMSデータベースのデータを使って学習され、原子力産業の技術用語や規制言語の処理能力が特に最適化されています。オークリッジ国立研究所のFrontierスーパーコンピュータ上で128個のAMD MI250X GPUを使って10時間学習され、原子力アプリケーションに堅実な基盤を提供します。
KognitiveKompanionは、KDEなどのデスクトップ環境をサポートする、現代的な多機能AIインターフェースです。OpenAI、Ollama、AMD Ryzen AIのハードウェアアクセラレーションとのシームレスな統合を提供します。
KognitiveKompanionは、KDEなどの複数のデスクトップ環境をサポートし、OpenAI、Ollama、およびAMD Ryzen AIのハードウェアアクセラレーションなどの複数のバックエンドを統合した、高度なUI、コンテキスト機能、および会話管理を提供する、現代的な多機能AIインターフェースです。
マルチアーキテクチャ(arm64とamd64)をサポートするDockerイメージを作成し、SSEトランスポートプロトコルをサポートするMCP Everythingサーバーをデプロイします。