Pipeshift、モジュール型推論エンジンを発表、AI推論におけるGPU使用率を75%削減
最近、スタートアップ企業Pipeshiftは、企業がオープンソースの生成AIモデルをより効率的にトレーニング、デプロイ、拡張できるように設計された、新しいエンドツーエンドプラットフォームを発表しました。このプラットフォームは、あらゆるクラウド環境やオンプレミスのGPU上で動作し、推論速度の大幅な向上とコスト削減を実現します。AI技術の急速な発展に伴い、多くの企業は複数のモデル間を効率的に切り替える方法に苦労しています。従来、チームは計算リソースの取得、モデルのトレーニングなど、複雑なMLOpsシステムを構築する必要がありました。