Cerebrasは10億ドルのHラウンド資金調達を完了し、評価額は230億ドルに達しました。今回の資金調達はTiger Globalが主導し、AMDも戦略的に参加しました。前回の評価額81億ドルからわずか4か月で急騰しています。
AIネットワークスタートアップのUpscale AIが、Tiger Globalなどから2億ドルのAラウンド資金調達を実施。インテルやAMDの支援を受け、AI向けカスタムチップ「SkyHammer」を開発し、GPU間のネットワーク接続を最適化して、AIハードウェアの性能向上を目指す。....
2026年CESでAMDはAI PCチップを発表し、AI応用をクラウドからノートPCやモバイルデバイスへ拡大。新製品にはRyzen AI400シリーズ、Ryzen AI Max +、Ryzen AI Pro400シリーズが含まれ、AI開発プラットフォーム「AI Halo」も導入。....
CES 2026でHPは、12mmの薄型キーボードにx86システムを統合した世界初のAI PC「Eliteboard G1a」を発表。AMD Ryzen AI 300シリーズ搭載、最大64GBメモリと2TBストレージで高性能を実現し、デスクトップの概念を革新。....
Instellaは、AMDが開発した高性能なオープンソース言語モデルであり、オープンソース言語モデルの発展を加速するために設計されています。
Framework Desktopは、AMD Ryzen? AI Max 300シリーズプロセッサに対応した、ミニサイズの高性能デスクトップPCです。強力なAIとゲーム性能を備えています。
4096個のAMD GPU上で動作する大規模深層循環言語モデルの事前学習コードです。
AMDのオープンソースプラットフォーム。AI、ML、HPCワークロードのパフォーマンスを向上させます。
amd
Llama-3.1-8B-onnx-ryzenai-npuは、AMDがMetaのLlama-3.1-8Bモデルをベースに開発した最適化バージョンで、AMD Ryzen AI NPU向けに最適化されたデプロイが行われています。このモデルは、Quark量子化、OGAモデルビルダー、およびNPU専用の後処理技術を通じて、高品質なテキスト生成能力を維持しながら、AMDハードウェア上での推論効率を大幅に向上させています。
このプロジェクトは、AMDの量子化ツールを使用してQwen3-4Bモデルを量子化処理したテキスト生成モデルで、チャットなどのシーンに使用できます。このモデルはAMD Quark量子化ツールを使用して準備され、必要な後処理が行われています。
PARDは高性能な推測デコード方法で、低コストで自己回帰ドラフトモデルを並列ドラフトモデルに変換でき、大規模言語モデルの推論速度を大幅に向上させ、展開の複雑さと適合コストを削減します。
FastFlowLM
これはMeta AIのLLaMA 3.1ベースモデルをベースにした派生モデルで、AMD Ryzen™ AI NPU上のFastFlowLMに特化して最適化されており、XDNA2アーキテクチャのみに対応しています。モデルはMetaが公開したコアアーキテクチャと重みを保持しており、特定のアプリケーションに合わせて微調整、量子化、または適合化されている可能性があります。
これはMeta AIがリリースしたLLaMA 3.2 1B Instructモデルの最適化バリエーションで、AMD Ryzen™ AI NPU(XDNA2アーキテクチャ)上のFastFlowLMに特化して最適化されています。モデルは元のアーキテクチャと重みを保持し、量子化、低レベルチューニングなどの技術を通じてNPU上での実行効率を向上させています。
Motif-Technologies
Motif 2.6Bは26億のパラメータを持つ言語モデルで、AMD Instinct™ MI250 GPU上で最初から訓練され、人間の価値観に沿った、有用で信頼できるAIを構築することを目的としています。
Nitro-Tは、効率的なトレーニングに特化した一連のテキストから画像への拡散モデルで、画像生成ベンチマークテストで競争力があり、トレーニング時間が極めて短い。
Instella-LongはAMDによって開発された、128Kの文脈長をサポートする3Bパラメータのオープンソース言語モデルで、長文脈ベンチマークテストで優れた性能を発揮します。
PARD is a high-performance speculative decoding method that can convert autoregressive draft models into parallel draft models at low cost, significantly accelerating the inference of large language models.
tngtech
OLMo-2-0325-32B-Instructモデルを基に、Open R1数学データセットを使用しAMD MI300X GPU上で微調整され、数学推論能力の向上に特化
InstellaはAMDがInstinct™ MI300X GPUを基にゼロからトレーニングした30億パラメータの完全オープンソース言語モデルシリーズで、同等規模のオープンソースモデルを上回る性能を持ち、Llama-3.2-3BやGemma-2-2Bなどの先進的なオープンウェイトモデルと競争します。
AMD Instinct MI300X GPUでトレーニングされた30億パラメータの完全オープン言語モデルファミリーで、同規模のオープンモデルを性能で凌駕
InstellaはAMDが開発した30億パラメータのオープンソース言語モデルシリーズで、AMD Instinct™ MI300X GPUでトレーニングされ、同規模の完全オープンソースモデルを性能で凌駕しています。
stabilityai
AMD Ryzen™ AI最適化版SDXL-Turbo、世界初のBlock FP16フォーマット採用テキスト生成画像モデル、AMD XDNA™ 2 NPU専用設計
AMD Nitro Diffusionは、AMD Instinct™ GPU向けに主流の拡散モデルから蒸留された効率的なテキスト生成画像モデルのシリーズです。PixArt-Sigma Nitroは、Transformerベースの高解像度単段推論モデルです。
AMD Instinct™ GPUを基盤とした主流拡散モデルから蒸留された効率的なテキスト画像生成モデルシリーズ
AMD-OLMoは、AMDによってAMD Instinct™ MI250 GPU上でゼロからトレーニングされた10億パラメータの言語モデルシリーズで、事前学習モデル、監督微調整モデル、および直接的な嗜好最適化(DPO)に基づくアライメントモデルが含まれます。このシリーズのモデルはOLMoアーキテクチャに基づいており、Dolmaデータセットで事前学習され、複数の指令データセットで微調整されています。
AMD-OLMoは、AMDがAMD Instinct™ MI250 GPU上でゼロからトレーニングした10億パラメータの一連の言語モデルです。
Phi-3.5-mini-instructはマイクロソフトが開発した効率的な小型言語モデルで、先進的な量子化技術を用いて最適化され、NPUデプロイ向けに設計されています。このモデルはテキスト生成タスクで優れた性能を発揮し、自然言語処理とコード関連のシーンをサポートします。
本プロジェクトはMeta-Llama-3-8Bモデルに基づき、Quark量子化技術を採用し、OGAモデルビルダーを組み合わせ、後処理を行ってNPUデプロイに適合させ、テキスト生成タスクに使用できます。このモデルはAMD NPUハードウェア用に最適化されており、効率的な推論デプロイをサポートします。
KognitiveKompanionは、KDEなどのデスクトップ環境をサポートする、現代的な多機能AIインターフェースです。OpenAI、Ollama、AMD Ryzen AIのハードウェアアクセラレーションとのシームレスな統合を提供します。
KognitiveKompanionは、KDEなどの複数のデスクトップ環境をサポートし、OpenAI、Ollama、およびAMD Ryzen AIのハードウェアアクセラレーションなどの複数のバックエンドを統合した、高度なUI、コンテキスト機能、および会話管理を提供する、現代的な多機能AIインターフェースです。
マルチアーキテクチャ(arm64とamd64)をサポートするDockerイメージを作成し、SSEトランスポートプロトコルをサポートするMCP Everythingサーバーをデプロイします。