CES 2026でHPは、12mmの薄型キーボードにx86システムを統合した世界初のAI PC「Eliteboard G1a」を発表。AMD Ryzen AI 300シリーズ搭載、最大64GBメモリと2TBストレージで高性能を実現し、デスクトップの概念を革新。....
AMDとHPEは、オープンで拡張可能なAIインフラ構築に向け連携を強化。AMDのAIプラットフォーム「Helios」をHPEが早期採用し、Juniperネットワークスイッチを組み合わせることで、高帯域・低遅延のAIクラスター接続を実現し、次世代AIインフラの推進を加速。....
HPは2028年度までに4000~6000人を削減し、年間10億ドルの経費削減を目指す。AIツール活用による製品開発・顧客サポートの効率化で競争力維持を図る。....
説明はありません
AMDのオープンソースプラットフォーム。AI、ML、HPCワークロードのパフォーマンスを向上させます。
AIおよびHPCアプリケーションを加速するNVIDIA H200 NVL GPU
HyperGAIが開発した革新的なマルチモーダルLLMフレームワーク。テキスト、画像、ビデオなど、多様な入力モダリティの理解と処理を目指しています。
AI、機械学習、HPC、および計算集約型アプリケーションに最適な高性能クラウドおよびクラウドインフラストラクチャ。
HPLT
これはHPLTプロジェクトが公開した第3版の単言語エンコーダー - デコーダー言語モデルで、ドイツ語専用に設計されています。ノイズ除去を目的として訓練されたテキスト - テキスト変換モデルで、NorT5アーキテクチャの設定に従い、ドイツ語のHPLTデータで訓練されたトークナイザーを使用しています。
hp-l33
ARPGは革新的な自己回帰画像生成フレームワークで、GPT風の因果的アーキテクチャによりBERT風のマスクモデリングを実現します。
hpcai-tech
Open-Soraはオープンソースで効率的なテキストから動画を生成するモデルで、高品質な動画生成技術の利用ハードルを下げることを目的としています。
hashu786
混元報酬モデルはHPSとMPSの2種類のLoRAモデルを含み、それぞれ美学表現とプロンプト適合度に重点を置いており、テキストから画像を生成するタスクに適しています。
HPAI-BSC
オープンソース医療大規模言語モデル、複数の医療タスクで最先端レベルを達成、Qwen2.5-72Bを基に開発
Qwen2.5-Aloe-Beta-7Bはオープンソースの医療用大規模言語モデルで、複数の医療タスクにおいて最先端の性能を達成しています。Qwen2.5-7Bアーキテクチャを基に微調整され、18億トークンの多様な医療タスクデータでトレーニングされています。
Llama3.1-Aloe-Beta-8Bはオープンソースの医療大規模言語モデルで、多くの医療タスクにおいて最先端の性能を達成しています。
AiMはPyTorchベースの無条件画像生成モデルで、PytorchModelHubMixinを介してHugging Face Hubに統合されています。
hpcgroup
HPC-Coder-v2-6.7bは高性能計算分野の命令データセットで微調整された大規模言語モデルで、並列計算、性能最適化、アクセラレータ移植などの典型的なHPCテーマに特化しています。
Aloeは次世代の医療大規模言語モデルファミリーで、モデル融合と先進的なプロンプト戦略により、その規模範囲内で全ての先行オープンソースモデルと比較して高い競争力を持ち、最先端の成果を達成しています。
HPLTプロジェクトが公開したタイ語単言語BERTモデルで、LTG - BERTアーキテクチャに基づいて訓練され、タイ語テキスト処理タスクに適しています。
HPLTプロジェクトがリリースしたスロバキア語単一言語BERTモデルで、LTG-BERTアーキテクチャに基づいて訓練され、マスク言語モデリングタスクに適しています
liruiw
HPTは異なるエンティティを共有潜在空間にアライメントするトランスフォーマーモデルで、戦略学習における拡張行動の研究に焦点を当てています。
LumiOpen
Poro 34Bチャット版はPoro 34Bを微調整したインストラクションフォローモデルで、フィンランド語と英語のバイリンガルインタラクションをサポートし、Silo AI、TurkuNLPグループ、HPLTが共同開発しました。
これはTransformerアーキテクチャに基づくアラビア語から英語への機械翻訳モデルで、HPLTデータのみでトレーニングされています。
OPUSとHPLTデータで訓練されたアラビア語-英語機械翻訳モデルで、MarianとHugging Faceの2形式を提供します。
VQVAEはVQ-VAEアーキテクチャに基づく動画生成モデルで、VideoGPTプロジェクトからクローンされ、Hugging Face形式に変換してより簡単にロードできるように設計されています。
norallm
NorMistral-7b-scratchは、ノルウェー語に特化した大規模言語モデルで、オスロ大学の言語技術グループ、HPLTプロジェクト、ノルウェー国立図書館、およびタルク大学が共同開発しました。このモデルはMistralアーキテクチャに基づいており、70億のパラメータを持ち、2600億のサブワードトークンのノルウェー語コーパスで最初から事前学習されており、NORA.LLMシリーズの重要な一部です。
adams-story
HPSv2-hfはHPSv2モデルのHuggingface CLIPModelバージョンで、AI生成画像に対する人間の嗜好を予測します。
LLaMA-2ベースの中英バイリンガルオープンソース大規模言語モデルで、約85億トークンの継続的な事前学習を経ており、4096トークンのコンテキストウィンドウをサポートします。
これは企業用のプリンター情報MCPサーバーです。販売およびサービスチームに対して、詳細なプリンターの仕様、価格設定、トラブルシューティング、および設定情報を提供します。HP、キヤノン、リコーなどの9大ブランドをサポートし、プリンターの検索、比較、コスト計算、およびトラブル処理に使用する10のスマートツールを備えています。
dpdispatcherライブラリに基づくMCPサーバーで、ローカルまたはHPCクラスター上の計算タスクの送信と管理に使用します。